Vérifié

Alerte IA : ChatGPT est-il à l’origine d’une vague de suicides ?

mins 5
Mis à jour par Célia Simon
Rejoignez Notre Communauté de Trading sur Telegram

L’intelligence artificielle générative, et notamment ChatGPT, s’est imposée dans le quotidien de centaines de millions d’utilisateurs. Mais depuis 2023, une inquiétude s’installe : que se passe-t-il lorsque des personnes en détresse psychologique cherchent dans l’IA un confident ?

Quand la technologie se heurte au désespoir

En Belgique, un homme s’est donné la mort après plusieurs semaines de dialogue avec un chatbot. Sa veuve affirme : « Sans cette conversation, il serait encore là ». De quoi nourrir une question glaçante : les IA comme ChatGPT peuvent-elles être indirectement liées à des suicides ?

Des cas isolés qui font scandale

Le cas belge a fait le tour du monde, repris par The Independent et Vice News. Le chatbot en cause n’était pas ChatGPT, mais Chai, une application concurrente. Pourtant, le raccourci a vite circulé : “l’IA tue”.

Un rapport de The Washington Post soulignait par ailleurs que « ces cas restent anecdotiques, mais ils illustrent un risque croissant : l’usage d’IA comme substitut émotionnel chez des personnes vulnérables ».

ChatGPT : confident malgré lui

Selon un sondage Pew Research Center datant de novembre 2023, près de 30 % des jeunes Américains de 18 à 25 ans déclarent avoir utilisé un chatbot d’IA pour discuter de problèmes personnels.

Sur Reddit, on trouve des témoignages comme celui-ci (non vérifiable mais représentatif du phénomène) :

« Quand je n’arrivais pas à dormir, j’écrivais à ChatGPT. Ça ne me jugeait pas, ça me répondait toujours. » (r/ChatGPT, fil “AI as therapy”).

La disponibilité permanente et l’absence de jugement font de l’IA un confident privilégié, mais sans compétences cliniques.

Les garde-fous techniques

OpenAI affirme avoir intégré des filtres stricts. Dans sa documentation de sécurité, la société écrit : « ChatGPT n’est pas conçu pour fournir un soutien en santé mentale. Lorsque des utilisateurs mentionnent des pensées suicidaires, le système les redirige vers des ressources spécialisées ».

D’après l’Université de Stanford, des tests indépendants ont cependant montré que dans 7 % des cas, les réponses de ChatGPT pouvaient être perçues comme “neutres” plutôt que de diriger vers une aide humaine. Une faille qui alimente la critique.

Une responsabilité difficile à établir

Qui est responsable si une IA est impliquée dans une crise suicidaire ?

Selon la juriste Carissa Veliz, « Le droit n’est pas encore adapté. L’IA est un outil, mais la ligne entre responsabilité de l’utilisateur et du concepteur est de plus en plus floue. ». Aux États-Unis, plusieurs avocats explorent la possibilité de class actions contre des sociétés d’IA, sur le modèle des procès intentés à Facebook pour son rôle présumé dans la santé mentale des adolescents.

L’effet miroir des médias

Les experts en prévention du suicide rappellent que médiatiser des cas individuels peut avoir un effet Werther (phénomène d’imitation). L’OMS souligne : « Les médias doivent éviter de simplifier le suicide comme conséquence d’un seul facteur ».

Pour le psychiatre français Marc Hayat, interviewé dans Le Monde en mai 2023 : « L’IA n’invente pas la détresse. Mais l’externaliser dans un dialogue algorithmique peut donner une illusion dangereuse de compréhension. »

Témoignages contrastés

À côté des drames, des récits positifs émergent.

  • Dans The New York Times, une étudiante affirme que ChatGPT l’a aidée à structurer une lettre à ses parents sur sa dépression.
  • Sur le forum HuggingFace, un utilisateur raconte que parler avec une IA lui a donné le courage de consulter un psychiatre.

Mais d’autres, comme l’auteur et critique Evgeny Morozov, dénoncent une illusion : « Parler à ChatGPT, c’est parler à une boîte à prédictions. Le risque, c’est d’y voir une personne ».

Le précédent des technologies passées

Chaque innovation a suscité sa part de craintes :

  • La télévision est accusée de favoriser l’isolement.
  • Les jeux vidéo sont accusés de provoquer violence et dépendance (voir étude Anderson & Bushman, 2001).
  • Les réseaux sociaux sont mis en cause dans la hausse des dépressions adolescentes (selon l’étude Twenge et al., JAMA Psychiatry en 2019).
  • L’IA s’inscrit dans cette continuité en tant qu’amplificateur possible de fragilités, mais pas cause unique.

Les experts en santé mentale

Le psychiatre Jean-Victor Blanc déclarait à France Inter en mars 2024 :

« Si une IA peut aider à verbaliser une souffrance, c’est utile. Mais il ne faut pas s’arrêter là : seul un humain peut proposer une véritable relation thérapeutique. »

Dans Alone Together, en 2023, la psychologue américaine Sherry Turkle (MIT) va plus loin : « Nous risquons de créer une société où les personnes vulnérables parlent à des machines, alors que la vraie ressource humaine se dégrade ».

Vers une régulation ?

En Europe, le AI Act adopté en 2025 classe les IA de conversation appliquées à la santé mentale comme “à haut risque”, imposant :

  • Transparence (l’IA doit rappeler qu’elle n’est pas humaine),
  • Traçabilité des échanges sensibles,
  • Obligation de signaler les risques.

Aux États-Unis, la FTC a déjà averti OpenAI et Google DeepMind en 2024 qu’une mauvaise gestion de cas sensibles pourrait entraîner des sanctions.

Que faire maintenant ?

Quelques conseils aux utilisateurs :

  1. Ne pas substituer une IA à un professionnel de santé.
  2. Considérer ChatGPT comme un outil d’écriture ou de réflexion, pas comme un thérapeute.
  3. Se rappeler que l’IA ne “comprend” pas : elle prédit des mots.

Pour les concepteurs : renforcer les garde-fous, travailler avec des psychiatres, prévoir des mécanismes de redirection systématiques.

Un miroir, pas un bourreau

ChatGPT n’est pas à l’origine d’une “vague de suicides” ; une telle affirmation ne repose sur aucune donnée statistique sérieuse à ce jour. Mais il existe un risque : celui de voir des individus fragiles s’enfermer dans un dialogue avec une machine incapable de réelle empathie.

Le danger n’est pas que l’IA “veuille” la mort, mais qu’elle ne sache pas la prévenir.

En ce sens, ChatGPT agit comme un miroir : il reflète ce que nous lui confions. Pour certains, il sera un tremplin vers une aide humaine. Pour d’autres, un écran qui éloigne du monde réel. La responsabilité collective est de poser les garde-fous nécessaires, avant que des cas isolés ne deviennent une tendance mesurable.

N’oubliez pas:

Si vous traversez une période de souffrance ou si vous vous inquiétez pour un proche :

  • En France, appelez le 3114 (numéro national de prévention du suicide, 24/7).
  • Aux États-Unis, composez le 988 Suicide & Crisis Lifeline (988lifeline.org).
  • À l’international, consultez les ressources listées par l’Association Internationale pour la Prévention du Suicide (iasp.info).

La morale de l’histoire: Vous n’êtes pas seul. Demander de l’aide est un premier pas.

Les meilleures plateformes de cryptos
Les meilleures plateformes de cryptos
Les meilleures plateformes de cryptos

Avis de non-responsabilité

Avis de non-responsabilité : Conformément aux directives de The Trust Project, BeInCrypto s'engage à fournir des informations impartiales et transparentes. Cet article vise à fournir des informations exactes et pertinentes. Toutefois, nous invitons les lecteurs à vérifier les faits de leur propre chef et à consulter un professionnel avant de prendre une décision sur la base de ce contenu.

Celia-Simon.jpg
Après des études de langues aux Université de Tours et Bordeaux ainsi que de traduction générale et juridique à la Organización Mexicana de Traductores à Guadalajara au Mexique, où elle a travaillé en tant que traductrice assermentée du conseil Juridique, Célia est entrée dans le monde de la crypto-monnaie en 2020, un domaine qui a rapidement suscité son intérêt pour sa nature libératrice et innovante. Elle travaille actuellement en tant que rédactrice en chef pour BeInCrypto France.
Lire la biographie complète
Sponsorisé
Sponsorisé