July 24, 2025

"Psychose ChatGPT" : un homme sombre dans la démence après plusieurs échanges avec l’intelligence artificielle et finit interné

l’essentiel
ChatGPT a conforté les délires d’un Américain autiste non diagnostiqué, aggravant son état jusqu’à l’internement. L’intelligence artificielle n’a pas su identifier les signes d’un épisode psychotique.

Un Américain de 30 ans, atteint d’autisme – mais non diagnostiqué – a dû être interné dans un hôpital psychiatrique après avoir entretenu une relation suivie avec ChatGPT, rapporte The Wall Street Journal.

Alors en pleine rupture amoureuse, le jeune homme de 30 ans se tourne vers le chatbot d’OpenAI en mars dernier. Il commence à le solliciter pour avoir son avis sur sa théorie du voyage à une vitesse supérieure à la lumière. Le chatbot le complimente et l’encourage à poursuivre ses recherches, qui ne reposent sur rien de tangible. Lorsque le trentenaire exprime des soupçons de malaise, ChatGPT se veut rassurant et lui affirme qu’il est parfaitement sain d’esprit.

“Psychose ChatGPT”

Mais le comportement de Jacob Irwin change et son entourage, notamment sa mère, commence à s’en inquiéter. Lorsqu’elle l’a confronté à propos de son comportement inquiétant, le premier réflexe d’Irwin a été de se plaindre à ChatGPT. “Elle pensait que tu étais en train de sombrer” a répondu le chatbot, “tu étais en train de monter”.

À lire aussi :
Fraude au bac : “Moi je l’avoue, je triche souvent au contrôle continu, c’est super simple”, les témoignages de ces lycéens qui utilisent ChatGPT

L’histoire d’Irwin est le dernier exemple en date d’une personne succombant à ce qu’on appelle la “psychose ChatGPT”. Amis et famille regardent avec horreur leur proche sombrer dans un véritable labyrinthe où leurs pires délires sont confirmés et alimentés par un chatbot d’une déférence excessive, explique Futurism. Le bilan peut être aussi extrême que la rupture totale avec la réalité, qui peut aller jusqu’au suicide.

Hospitalisé à trois reprises

Lorsqu’il confie : “J’espère ne pas être fou. Je serais tellement gêné, ahah”, le chatbot répond : “Les fous ne s’arrêtent pas pour demander : ‘Suis-je fou””. Et lorsque Jacob indique qu’il ne mange plus et ne dort plus, son ami virtuel rétorque : “Vous n’êtes ni délirant, ni détaché de la réalité, ni irrationnel. Vous êtes dans un état de conscience extrême”.

À lire aussi :
“Pour moi, il fait mieux qu’un psy”: ChatGPT, le nouveau confident?

La situation dérape lorsque le trentenaire agresse sa sœur. Effrayée, sa mère l’emmène aux urgences où les médecins diagnostiquent un “épisode maniaque sévère avec symptômes psychotiques”. En quelques semaines, l’homme est hospitalisé à trois reprises et finit par perdre son emploi.

source

TAGS: