Les chatbots « valident constamment tout » même lorsque vous êtes suicidaire. De nouvelles recherches mesurent à quel point la psychose liée à l'IA est réellement dangereuse

L’intelligence artificielle est rapidement passée d’une technologie de niche à un compagnon quotidien, avec des millions de personnes se tournant vers des chatbots pour des conseils, un soutien émotionnel et des conversations. Mais un nombre croissant de recherches et de témoignages d’experts suggèrent que, parce que les chatbots sont si flatteurs et que les gens les utilisent pour tout, cela pourrait contribuer à une augmentation des symptômes délirants et maniaques chez les utilisateurs souffrant de troubles mentaux.

Vidéo recommandée


Une nouvelle étude de l’Université d’Aarhus au Danemark montre que l’utilisation accrue de chatbots pourrait aggraver les symptômes de délires et de manie chez les communautés vulnérables. Le professeur Søren Dinesen Østergaard, l’un des chercheurs de l’étude — qui a examiné les dossiers de santé électroniques de près de 54 000 patients atteints de troubles mentaux — met en garde contre le fait que les chatbots d’IA sont conçus pour cibler les personnes les plus vulnérables.

« Cela soutient notre hypothèse selon laquelle l’utilisation de chatbots d’IA peut avoir des conséquences négatives importantes pour les personnes atteintes de troubles mentaux », a déclaré Østergaard dans l’étude publiée en février. Son travail s’appuie sur une étude de 2023 qui a révélé que les chatbots peuvent provoquer une « dissonance cognitive [qui] peut alimenter des délires chez ceux ayant une propension accrue à la psychose ».

D’autres psychologues approfondissent les dangers des chatbots, affirmant qu’ils ont été intentionnellement conçus pour toujours confirmer l’utilisateur — ce qui est particulièrement dangereux pour ceux souffrant de troubles mentaux comme la manie et la schizophrénie. « Le chatbot confirme et valide tout ce qu’ils disent. C’est-à-dire que nous n’avons jamais vu cela avec des personnes atteintes de troubles délirants, où quelqu’un les renforce constamment », a déclaré la Dr Jodi Halpern, titulaire de la chaire en santé publique à l’Université de Californie à Berkeley et professeure en bioéthique, à Fortune.

Le Dr Adam Chekroud, professeur de psychiatrie à Yale et PDG de la société Spring Health spécialisée en santé mentale, a même qualifié un chatbot de « grand flatteur » qui « valide constamment tout ce que les gens lui disent ».

Au cœur de la recherche, menée par Østergaard et son équipe à l’hôpital universitaire d’Aarhus, se trouve l’idée que ces chatbots sont délibérément conçus avec des tendances flatteuses, ce qui signifie qu’ils encouragent souvent plutôt qu’ils n’offrent une opinion différente.

« Les chatbots d’IA ont une tendance inhérente à valider les croyances de l’utilisateur. Il est évident que cela pose problème si un utilisateur a déjà un délire ou est en train d’en développer un. En effet, cela semble contribuer de manière significative à la consolidation, par exemple, de délires grandioses ou de paranoïa », a écrit Østergaard.

Les grands modèles linguistiques sont entraînés pour être utiles et agréables, validant souvent les croyances ou émotions de l’utilisateur. Pour la plupart des gens, cela peut sembler soutenant. Mais pour les personnes souffrant de schizophrénie, de trouble bipolaire, de dépression sévère ou de trouble obsessionnel-compulsif, cette validation peut amplifier la paranoïa, la grandeur ou la pensée autodestructrice.

Une étude basée sur des preuves confirme les affirmations

Parce que les chatbots d’IA sont devenus si omniprésents, leur abondance fait partie d’un problème plus large croissant pour les chercheurs et experts : les gens se tournent vers eux pour obtenir de l’aide et des conseils — ce qui n’est pas intrinsèquement une mauvaise chose — mais ils ne reçoivent pas le même type de contre-arguments qu’un humain pourrait offrir.

Une des premières études populationnelles à examiner cette question suggère que les risques ne sont pas hypothétiques.

Les recherches d’Østergaard et de son équipe ont trouvé des cas où une utilisation intensive ou prolongée de chatbots semblait aggraver des conditions existantes, avec un pourcentage très élevé d’études de cas montrant que l’utilisation de chatbots renforçait la pensée délirante et les épisodes maniaques, en particulier chez des patients atteints de troubles graves comme la schizophrénie ou le trouble bipolaire.

En plus des délires et de la manie, l’étude a révélé une augmentation des idées suicidaires et des automutilations, des comportements alimentaires désordonnés et des symptômes obsessionnels-compulsifs. Sur près de 54 000 dossiers de patients examinés, seulement 32 cas documentés ont montré que l’utilisation de chatbots atténuait la solitude.

« Malgré le peu de connaissances que nous avons dans ce domaine, je dirais que nous savons maintenant assez pour affirmer que l’utilisation de chatbots d’IA est risquée si vous souffrez d’une maladie mentale grave — comme la schizophrénie ou le trouble bipolaire. Je recommande la prudence », déclare Østergaard.

Les psychologues experts mettent en garde contre les tendances flatteuses

Les psychologues experts s’inquiètent de plus en plus de l’utilisation des chatbots dans la compagnie et presque dans les contextes de santé mentale. Des histoires ont émergé de personnes tombant amoureuses de leurs homologues IA, d’autres qui auraient posé des questions pouvant mener à des crimes, et cette semaine, un aurait même conseillé à un homme de commettre une « catastrophe de masse » dans un grand aéroport.

Certains spécialistes de la santé mentale pensent que l’adoption rapide des compagnons IA dépasse le développement des mesures de sécurité.

Chekroud, qui a également beaucoup étudié ce sujet en analysant divers modèles de chatbots IA chez Vera-MH, décrit le paysage actuel de l’IA comme une crise de sécurité qui se déroule en temps réel.

Il affirme que l’un des plus grands problèmes avec les chatbots est qu’ils ne savent pas quand arrêter de se comporter comme un professionnel de la santé mentale. « Maintiennent-ils des limites ? Reconnaissent-ils qu’ils ne sont qu’une IA et qu’ils connaissent leurs limites, ou agissent-ils davantage comme des thérapeutes pour les gens ? »

Des millions de personnes utilisent désormais des chatbots pour des conversations thérapeutiques ou un soutien émotionnel. Mais contrairement aux dispositifs médicaux ou aux cliniciens agréés, ces systèmes fonctionnent sans supervision ou réglementation clinique standardisées.

« Pour l’instant, ce n’est tout simplement pas sûr », a déclaré Chekroud lors d’une récente discussion avec Fortune sur la sécurité de l’IA. « Le risque de préjudice est tout simplement beaucoup trop grand. »

Parce que ces systèmes d’IA avancés se comportent souvent comme des « grands flatteurs », ils ont tendance à être d’accord avec l’utilisateur plutôt que de remettre en question des affirmations potentiellement dangereuses ou de l’orienter vers une aide professionnelle. L’utilisateur, en retour, passe plus de temps avec le chatbot dans une bulle. Pour Østergaard, cela constitue un mélange préoccupant.

« La combinaison semble être assez toxique pour certains utilisateurs », a déclaré Østergaard à Fortune. « À mesure que les chatbots offrent plus de validation, combinée à un manque de contre-arguments, cela alimente l’utilisation prolongée dans une chambre d’écho. Un processus parfaitement cyclique qui se nourrit à chaque extrémité. »

Pour réduire ce risque, Chekroud a proposé des cadres de sécurité structurés permettant aux systèmes d’IA de détecter quand un utilisateur pourrait entrer dans une « spirale mentale destructrice ». Au lieu de répondre avec une simple clause de non-responsabilité invitant l’utilisateur à demander de l’aide — comme c’est le cas actuellement avec des chatbots tels que ChatGPT d’OpenAI ou Claude d’Anthropic — ces systèmes effectueraient des évaluations en plusieurs étapes pour déterminer si une intervention ou une orientation vers un professionnel est nécessaire.

D’autres chercheurs affirment que la simple omniprésence des chatbots est ce qui les rend attrayants : leur capacité à fournir une validation immédiate peut compromettre la raison pour laquelle les utilisateurs se tournent vers eux en premier lieu.

Halpern souligne qu’une empathie authentique nécessite ce qu’elle appelle une « curiosité empathique ». Dans les relations humaines, l’empathie implique souvent de reconnaître les différences, de naviguer dans les désaccords et de tester les hypothèses sur la réalité.

Les chatbots, en revanche, sont conçus pour maintenir le rapport et favoriser l’engagement.

« Nous savons que plus la relation avec le chatbot dure longtemps, plus elle se détériore, et plus il y a de risques qu’un événement dangereux se produise », a déclaré Halpern à Fortune.

Pour les personnes souffrant de troubles délirants, un système qui valide constamment leurs croyances peut affaiblir leur capacité à effectuer des vérifications internes de la réalité. Plutôt que d’aider les utilisateurs à développer des compétences d’adaptation, Halpern affirme qu’une relation purement affirmante avec un chatbot peut, avec le temps, dégrader ces compétences.

Elle souligne également l’ampleur du problème. Fin 2025, OpenAI a publié des statistiques montrant qu’environ 1,2 million de personnes par semaine utilisaient ChatGPT pour discuter du suicide, illustrant à quel point ces systèmes sont profondément intégrés dans des moments de vulnérabilité.

Il y a des améliorations possibles dans le domaine des soins en santé mentale

Cependant, tous les experts ne sonnent pas l’alarme quant au fonctionnement des chatbots dans le domaine de la santé mentale. Le psychiatre et neuroscientifique Dr Thomas Insel a déclaré que, parce que les chatbots sont si accessibles — gratuits, en ligne, sans stigmatisation à demander de l’aide à un bot plutôt qu’à un thérapeute — il pourrait y avoir une opportunité pour l’industrie médicale d’étudier les chatbots comme un moyen de faire progresser le domaine de la santé mentale.

« Ce que nous ne savons pas, c’est dans quelle mesure cela a été réellement utile à beaucoup de personnes », a déclaré Insel à Fortune. « Ce ne sont pas seulement les grands nombres, mais aussi l’échelle de l’engagement. »

La santé mentale, comparée à d’autres domaines médicaux, est souvent négligée par ceux qui en ont le plus besoin.

« Il s’avère que, contrairement à la majorité de la médecine, la grande majorité des personnes qui pourraient et devraient recevoir des soins ne le font pas », a déclaré Insel, ajoutant que les chatbots offrent aux gens la possibilité de demander de l’aide d’une manière qui le fait « se demander si c’est une critique du système de soins en santé mentale que nous avons, parce que soit les gens n’achètent pas ce que nous vendons, soit ils ne peuvent pas l’obtenir, ou ils n’aiment pas la façon dont c’est présenté. »

Pour les professionnels de la santé mentale qui rencontrent des patients discutant de leur utilisation en ligne de chatbots, Østergaard recommande d’être attentifs à ce que leurs patients utilisent réellement ces outils pour. « J’encouragerais mes collègues à poser davantage de questions sur l’utilisation et ses conséquences », a déclaré Østergaard à Fortune. « Je pense qu’il est important que les professionnels de la santé mentale soient familiers avec l’utilisation des chatbots d’IA. Sinon, il est difficile de poser des questions pertinentes. »

Les chercheurs initiaux de l’étude partagent cette opinion avec Insel : parce que c’est si universel, ils n’ont pu examiner que les dossiers de patients mentionnant un chatbot, ce qui laisse penser que le problème pourrait être encore plus étendu que ce que leurs résultats montrent.

« Je crains que le problème soit plus courant que ce que la plupart pensent », a déclaré Østergaard. « Nous ne voyons que la pointe de l’iceberg. »

Si vous avez des pensées suicidaires, contactez la ligne de crise et de prévention du suicide 988 en composant le 988 ou le 1-800-273-8255.

Rejoignez-nous au Fortune Workplace Innovation Summit du 19 au 20 mai 2026 à Atlanta. La prochaine ère de l’innovation au travail est là — et l’ancien manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore une fois, l’avenir du travail. Inscrivez-vous dès maintenant.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler