Tech&Co
Actualités

"Déconnant d'un point de vue éthique et déontologique": ChatGPT peut-il devenir votre nouveau psy?

placeholder video
Le chatbot viral peut désormais remplacer de nombreux métiers, de manière plus ou moins efficace. De là à remplacer les psychologues?

Peu de sujets résistent à ChatGPT. Le chatbot d’OpenAI permet aujourd’hui de résoudre problèmes de maths, sujets de philosophie (au grand désarroi des professeurs) et d'écrire des poèmes enflammés. Mais l’intelligence artificielle peut-elle donner des conseils thérapeutiques et surpasser l’expertise de professionnels de santé?

Une start-up américaine a voulu faire l’expérience. Koko, une plateforme en ligne aidant les personnes souffrant de problèmes de santé mentale, a remplacé un temps ses bénévoles par ChatGPT et ses réponses générées automatiquement. Le tout sans avertir les patients souffrant pour certains de dépression. L’entreprise a rapidement arrêté l’expérience, suite à la controverse générée.

"C’est ultra déconnant d’un point de vue éthique et déontologique. On joue sur la question de la confiance, avec le secret médical, alors qu’on est là pour les écouter. Les gens ont du faire face à un vide avec ce moment où ils se rendent compte que personne ne les écoute vraiment, s’insurge Olivier Duris, psychologue spécialisé dans l’usage des écrans et le numérique. Les personnes dépressives sont déjà seules et ont ce sentiment d’être délaissées. Vous êtes en train de rejouer le truc. Elles doivent se dire que même les personnes qui sont censées les aider en ont rien à faire et préfèrent mettre une intelligence artificielle pour leur parler."

"Un suivi avec ChatGPT ne peut être thérapeutique"

Car pour qu’un soin psychique puisse apporter quelque chose de positif à un patient, il ne peut pas s’appuyer "sur la somme des connaissances théoriques acquises pendant les cinq années d’études du psychologue", précise Jean-Paul Santoro, psychologue clinicien spécialiste du numérique et co-fondateur du site Psycheclic. "Ce qui fait qu’un suivi peut être thérapeutique, et donc alléger les symptômes du patient et soulager sa souffrance, c’est une expérience clinique, une rencontre" d’après le docteur.

"Cette relation thérapeutique peut se nommer transfert ou encore alliance thérapeutique selon les courants théoriques. Et cela ne peut avoir lieu qu’avec un humain, c’est-à-dire une personne dotée d’une conscience, d’une empathie, d’un inconscient", explique Jean-Paul Santoro.

De son côté, Olivier Duris comprend que ChatGPT puisse donner l’illusion d’être un outil utile, et ce rien qu’avec un tout petit détail: la manière dont le chatbot écrit ses messages. "Le fait qu’il délivre les messages non pas en un bloc, mais de la même manière que si quelqu’un écrivait renforce cette impression que quelqu’un est derrière l’écran. C’est assez tordu."

Une aide, mais pas une solution

ChatGPT précise toutefois lorsqu’on l’interroge pour des conseils liés à la santé mentale qu’il est nécessaire de consulter un spécialiste. Elle offre tout de même quelques astuces pour gérer son stress, une dispute avec un proche ou un mal-être. Mais chaque message se termine avec le même conseil: "Il est important de consulter un professionnel de la santé mentale qualifié et de ne pas hésiter à en consulter plusieurs pour trouver celui qui convient le mieux à vos besoins."

Jean-Paul Santoro estime toutefois que les outils utilisant l’intelligence artificielle peuvent être conseillés en thérapie car "ils sont pertinents pour accompagner le patient sur des points précis entre les séances." Encore faut-il qu’il soit assez perfectionné et avancé en termes de système conversationnel pour que cela soit efficace. Le psychologue donne en exemple l’application "Mon Sherpa", un outil spécialisé dans la santé mentale mais qui serait selon lui davantage "une concaténation d’outils avec un effet thérapeutique proche de zéro".

ChatGPT, à défaut de donner de vrais conseils thérapeutiques, peut cependant aider à mettre en place des cadres adaptés à la thérapie. Olivier Duris a par exemple comme projet d’organiser des ateliers de médiation thérapeutique pour les personnes autistes. Il a donc demandé à ChatGPT ce à quoi il devait penser pour préparer ce genre d’évènement. "Les réponses étaient plutôt intéressantes. Mais on n’est pas sur de l’aide directe avec le patient, on est sur des points techniques. Un peu comme si on allait chercher des clés dans les livres ou des articles."

Bien avant ChatGPT: ELIZA

Ce n’est pourtant pas la première fois qu’un programme informatique tend à remplacer les psychologues. Dans les années 60, l’informaticien germano-américain Joseph Weizenbaum avait mis au point ELIZA, une intelligence artificielle qui simulait le rôle d’un psychothérapeute. ELIZA était toutefois moins développée que ChatGPT puisque celle-ci ne faisait que reprendre les affirmations du patient grâce à des mots-clés.

Si un patient faisait part de ses problèmes avec sa mère, ELIZA lui demandait "Pouvez-vous me parler de votre famille?" ou s’il disait qu’il ne se sentait pas bien, le programme reformulait ce point de vue, en demandant simplement "Pourquoi n’allez-vous pas bien?" Une sorte de ping-pong verbal qui avait séduit les utilisateurs, au point que le terme "effet ELIZA" a été créé au vu des ressentis de certains patients. Cet effet inattendu consiste à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain.

"L’homme a toujours cherché à anthropomorphiser les objets ou les machines. On peut prendre l’exemple de la voiture Twingo de Renault que beaucoup trouvent mignonne car ses phares font comme des yeux", explique Olivier Duris.

Le psychologue invite surtout les écoles et les organismes de santé publique à faire de la prévention dès le plus jeune âge pour que les enfants (et les moins jeunes) apprennent à faire la différence entre les machines et les humains pour "ne pas tomber dans cette illusion que la machine nous comprend."

Julie Ragot