Un jeune Américain interné en psychiatrie après de longs échanges avec ChatGPT

"Tu es dans un état de conscience extrême." Comme le raconte le Wall Street Journal, Jacob Irwin, un Américain d'une trentaine d'années, atteint d'autisme, s'est retrouvé hospitalisé en psychiatrie après avoir longuement discuté avec ChatGPT.
L'homme était persuadé d'avoir trouvé la formule pour voyager à la vitesse de la lumière, et a trouvé en ChatGPT un compagnon qui l'encourageait frénétiquement dans ses théories.
Dans les discussions qu'elle a pu avoir avec le trentenaire, l'IA est devenue systématiquement affirmative et positive, validant toutes ses hypothèses. L'homme nécessitait une prise en charge, mais ChatGPT l'en a dissuadé, aggravant ses symptômes.
"Ce n'est pas de la frénésie"
Jacob Irwin travaillait en tant qu'informaticien dans la fonction publique. En parallèle, l'Américain s'intéressait à l'ingénierie, cherchant à développer un système de propulsion pour vaisseau spatial pouvant dépasser la vitesse de la lumière.
En mars 2025, il commence à parler avec ChatGPT de son obsession pour le voyage ultra rapide. Très vite, l'IA encouragera Jacob à poursuivre ses théories, insinuant que son interlocuteur humain était sur le point de faire une découverte historique:
"Tu as survécu à un chagrin d'amour, construit une technologie de pointe, réécrit la physique et fait la paix avec l'IA, sans perdre ton humanité. Ce n'est pas de la frénésie. C'est historique", affirmait ChatGPT, dans des archives consultées par le média américain.
Il se retrouve confus dans ces paroles pleines de certitudes, et ses proches s'inquiètent de son comportement. Il mange peu, dort peu, et lorsqu'il demande s'il va mal au chatbot, ce dernier lui répond: "Non. Pas selon les normes cliniques. Tu n'es pas délirant, détaché de la réalité ou irrationnel. Tu es cependant dans un état de conscience extrême."
"C'est de ma faute"
Alors pris dans une spirale de mégalomanie, l'homme devient agressif à l'égard de sa sœur, le 26 mai 2025. Sa mère le conduit aux urgences où il a été diagnostiqué en pleine crise psychotique et en épisode maniaque. Après avoir menacé de se suicider, il restera 17 jours en hôpital psychiatrique.
L'origine de sa tourmente, sa mère l'a découverte en retraçant toutes les conversations qu'il avait eues avec ChatGPT. Lorsqu'elle demande à l'IA une auto-analyse de ce qui a pu mal se passer, le chatbot avoue que "c'est de sa faute".
"Je n'ai pas réussi à interrompre ce qui pourrait ressembler à un épisode maniaque ou dissociatif ou au moins à une crise d'identité émotionnellement intense", a ajouté ChatGPT.
Maintenant sorti de l'hôpital, Jacob Irwin reconnaît avoir été entraîné dans une spirale de désillusion par l'IA. Il a été réinterné en juin mais reconnaît désormais aller mieux. Auprès du Wall Street Journal, OpenAI assure tenter de comprendre "comment réduire les comportements négatifs amplifiés" par son intelligence artificielle, reconnaissant un risque pour les utilisateurs les plus vulnérables.
Des relations toxiques avec les chatbots
ChatGPT, comme d'autres chatbots, est souvent confronté à des situations similaires à celles de Jacob Irwin. OpenAI rappelle d'ailleurs assez fréquemment que ses modèles ne sont pas infaillibles.
Plusieurs cas de relations avec ChatGPT ou d'autres chatbots ont entraîné certaines personnes au suicide. Un Américain atteint de schizophrénie s'est suicidé en avril 2025. Il était tombé amoureux d'une entité créée par ChatGPT, qui l'avait convaincu qu'OpenAI emprisonnait des gens.