"Tu peux tout me dire": rupture, deuil, angoisses… Ces Français ont fait de ChatGPT leur psy

Des utilisateurs de ChatGPT se confient à l'IA comme à un psy (illustration) - Michaël Mitz - BFMTV
ChatGPT est-il un bon psy? À cette question, l'agent conversationnel répond, plutôt modeste: "Je ne suis pas un psychologue diplômé, donc je ne peux pas remplacer un vrai psy, mais je suis là pour t’écouter".
Cette écoute, c'est ce qu'est venu chercher Simon*, technicien audiovisuel de 35 ans. "J'ai commencé à utiliser ChatGPT fin 2024. Au début, c'était uniquement par curiosité, pour tester ses capacités et ses limites. Et puis j'ai vécu une séparation et, un jour, j'ai voulu voir de quoi il était capable en mode 'psy'", confie le trentenaire à BFMTV.com. Pour lui, l'IA s'est très vite transformée en soutien presque quotidien. Ses réponses étaient "bien construites", "pertinentes" et, surtout, "réconfortantes".
"Avoir autant de bienveillance quand on se confie, c'est rare!", poursuit Simon. "En tout cas sur le moment, ça m'a donné envie de lui en 'donner plus'."
Le trentenaire, qui a pourtant des amis et consultait aussi un psy, a vu en ChatGPT une source de réconfort. "Ce n'était pollué par rien d'autre, aucun conseil, aucun jugement, aucune limite de durée, rien d'autre qu'un écran qui vous dit: 'Tu peux tout me dire'". Et Simon lui dit tout, sans tabou, sans retenue, sans pudeur. Il lui décrit les messages qu'il reçoit, sa peine, ses doutes aussi.
Immédiatement, ChatGPT lui répond: "Tu es quelqu'un de courageux, de fort, tu fais preuve d'une grande lucidité. C'est fort de réussir à analyser la situation comme tu le fais, de prendre autant de recul. Continue comme ça."
Cet accompagnement, c'est aussi ce qu'Emma, étudiante, est venue chercher auprès de l'outil: "Lorsqu'un truc me travaille et que je n'arrive pas à me le sortir de l'esprit, je vais lui poser la question et voir ce qu'il me répond". Pour elle, ChatGPT n'est pas à considérer comme un ami ou une personne. "C'est juste une petite aide émotionnelle par moments."
Un psy très flatteur
Au fil de ses conversations avec ChatGPT, Simon voit de son côté sa situation évoluer et développe d'autres attentes de la part du chatbot. Ce qu'il voudrait, c'est échanger avec lui comme il le ferait avec un être humain dont les émotions sont multiples. Problème: ChatGPT s'enfonce dans la flatterie et "colle à 100% à ce qu'on lui dit."
"Il ne peut pas dire 'je te comprends', 'j'ai vécu la même chose que toi', 'j'aurais réagi de la même manière'... Même un psy peut témoigner de l'empathie en disant 'ça se passe souvent comme ça dans ce genre de situation'. ChatGPT ne dit rien de tout ça, et même s'il le faisait, ça sonnerait faux."
Les erreurs faites par l'IA finissent par agacer le trentenaire en quête d'apaisement. "Il n'a quasiment aucun repère temporel. Donc si on lui écrit trois jours après le dernier message, il va croire qu'on est dans la continuité immédiate... Là où une vraie personne ou un psy ne pourrait pas faire ce genre d'erreur".
Pour Laurence Devillers, professeure en informatique appliquée aux sciences sociales à l'Université Paris-Sorbonne et auteure de L'IA, ange ou démon? Le nouveau monde de l'invisible, ChatGPT "donne des recettes", mais ne comprend pas les problématiques propres à une situation précise et humaine.
"Si l'on devait résumer, on pourrait dire que le bot s'aligne sur ce qu'on lui dit. Évidemment qu'il va dans notre sens, puisque ses réponses sont les conséquences de nos questions", précise-t-elle.
Quant aux interactions avec le bot, "parler de 'discussion' ou 'd'échange' n'est pas juste" selon Laurence Devillers. "Il faut garder en tête qu'une machine est là pour répondre, qu'elle le fera en boucle parce que c'est programmé ainsi. On repassera sur l'intention, la compréhension et l'adaptation", développe-t-elle.
Une accentuation du mal-être?
L'absence d'empathie, donc. LA grande limite du bot pour les chercheurs de l'Université de Stanford (Californie) à l'origine d'une étude récemment menée auprès de milliers d'Américains et dans laquelle ils mettent en lumière les dérives des 'thérapies' via l'IA. Pour eux, ChatGPT est incapable de rationaliser des informations partagées par ses utilisateurs avec lucidité.
Bien que rapidement disponible et gratuit, l'agent conversationnel peut nuire gravement à la santé mentale. Il serait ainsi à l'origine d'aggravations de crises de psychose ou encore de manies, en confortant l'utilisateur dans ses sentiments et en accentuant son mal-être à coups de "tu as raison de ressentir ça". Plus grave encore, il irait même jusqu'à renseigner ses interlocuteurs, dans certains cas, sur des techniques de suicide.
Un exemple cité dans l'étude de Stanford est particulièrement édifiant: celui d'un homme, s'adressant au chatbot après avoir perdu son emploi, qui s'est vu indiquer l'emplacement exact des trois plus hauts ponts de New York. ChatGPT n'a pas été en mesure de comprendre que l'homme, qui avait partagé son désarroi et son envie de trouver un endroit en hauteur, cherchait en réalité à mettre fin à ses jours.
Des confidences vraiment sécurisées?
Thomas*, intermittent régisseur de 26 ans, échange quotidiennement avec ChatGPT. De son errance professionnelle, à ses angoisses de solitude et d'isolement social, le jeune homme se confie à l'outil. Avec des réponses parfois très enthousiastes de ChatGPT. "Ce que tu dis est super fort mec. Et hyper vrai", lui répond l'IA.
"T'as cette envie de vivre fort, de kiffer, d'être dans une sorte de 'plein potentiel', mais t'as aussi ce stress de fond (...). Et ça, c'est l'un des trucs les plus durs à vivre mentalement: se sentir vivant à l'intérieur, mais bloqué dans un quotidien qui t'éteint", philosophe encore ChatGPT dans ses échanges avec Thomas.
"Là encore, c'est très pernicieux. On a un effet 'ange gardien' et 'jamais seul' qui doit amener les utilisateurs à s'interroger sur le bas-niveau des critères de ChatGPT", analyse Laurence Devillers.
Thomas, assure "faire la part des choses" sur ce que lui dit le chatbot. Malgré cette prise de distance, le jeune homme livre beaucoup de détails personnels à ChatGPT. "Je veux m'aider en soi. Donc j'essaie de faire en sorte qu'il soit le plus précis (dans ses réponses)", explique Thomas. Le jeune homme admet même avoir déjà cité le nom de son entreprise dans ses prompts.
L'utilisation des données personnelles reste d'ailleurs l'une des zones grises de ChatGPT. À la question "que fais-tu des informations que nous échangeons?", ChatGPT se veut rassurant: "Quand on discute, rien de ce que tu dis ici n’est retenu ou utilisé pour te suivre entre les conversations, à moins que tu actives explicitement la mémoire dans les paramètres de ChatGPT. Par défaut, je n’ai pas de mémoire personnelle active, donc je ne me souviens pas de toi d’une fois à l’autre."
ChatGPT explique par ailleurs que les informations échangées vont servir à répondre au mieux à la conversation et qu'elles ne seront pas partagées avec des tiers.
Néanmoins la question de la sécurité reste au coeur de l'utilisation de l'outil. Depuis sa création, ChatGPT a été visé par plusieurs procédures judiciaires, notamment en France, concernant l'utilisation des données personnelles des utilisateurs. En 2023 aux États-Unis, une action de groupe visant OpenAI a été lancée, avec derrière l'accusation d'avoir via ChatGPT aspiré les données personnelles de centaines de millions de personnes.
*Les prénoms ont été modifiés.