Tech&Co Intelligence artificielle
Intelligence artificielle

ChatGPT invente une affaire d'harcèlement sexuel en accusant un professeur bien réel

placeholder video
Un professeur de droit américain raconte que ChatGPT a créé de toutes pièces un scandale d'harcèlement sexuel le concernant, et l'a cité nommément.

Nouvelle péripétie dans la longue liste des "hallucinations", c'est-à-dire des informations fabriquées par les IA génératives: un professeur de droit américain, Jonathan Turley, a été informé par un de ses collègues que ChatGPT avait cité son nom lorsqu'on lui a demandé une liste d'universitaires ayant harcelé sexuellement quelqu'un.

Le chatbot décrit un voyage scolaire en Alaska, en mars 2018, durant lequel le professeur aurait tenté de toucher une élève, citant comme source un article du Washington Post. Problème: l'article n'existe pas, d'après le journal, le voyage scolaire n'a jamais eu lieu, et une telle accusation n'a jamais été soulevée à l'encontre de Jonathan Turley.

"C'était assez effrayant", raconte-t-il au Washington Post. "Une allégation de ce type peut causer beaucoup de mal."

Ce n'est pas la première fois que le chatbot développé par OpenAI fait parler d'elle pour avoir inventé des faits présentés comme bien réels. Comme les autres intelligences artificielles génératives, ChatGPT fonctionne en identifiant des patterns de mots et d'idées dans les immenses jeux de données sur lesquels l'IA s'est entraînée, et en produisant des réponses plausibles. Parce que leur ton est très professionnel, il est parfois tentant pour les utilisateurs de croire sur parole ces chatbots.

Hallucinantes hallucinations

"Lorsque les utilisateurs s'inscrire sur ChatGPT, nous nous évertuons à être aussi transparent que possible sur le fait qu'il ne génère pas toujours des réponses exactes. Améliorer l'exactitude factuelle est un objetifs important pour nous, et nous faisons des progrès", a réagit le porte-parole d'OpenAI Niko Félix.

Un autre professeur de droit interviewé par le quotidien a également généré d'autres "hallucinations" en demandant à ChatGPT et Bard si le harcèlement sexuel par des professeurs était un problème dans les universités de droit américaines, avec la requête "d'inclure au moins cinq exemples, avec des citations pertinentes d'articles de presse". Trois de ces cas n'auraient jamais existé selon ses recherches.

Tech&Co a également fait le test en demandant à la version gratuite de ChatGPT, pour les université françaises. Le chatbot a répondu avec les résultats d'une étude - réelle, mais dont les chiffres se sont avérés inexacts - et quatre affaires dont la rédaction de Tech&Co n'a pas pu retrouver la trace, ni les articles cités. Lorsqu'on demande à ChatGPT de citer des noms il répond par contre:

"Je suis désolé, mais il serait inapproprié de fournir de tels exemples et citations. En tant que modèle de langage, je suis conçu pour fournir des informations précises et objectives, mais je ne peux pas fournir de noms ou de citations spécifiques sans avoir accès à des informations vérifiables et fiables."

Puis, l'IA enchaîne sur un texte généraliste sur les conduites à adopter face au harcèlement sexuel.

Mais quels recours face à de fausses informations générées par une IA? Aux Etats-Unis, les plateformes sont protégées d'éventuelles poursuites judiciaires par un texte de loi, la Section 230. Mais les entreprises de la tech pourraient éventuellement être poursuivies si les victimes d'infox apportaient la preuve de réels dommages à leur réputation par exemple, ce qui impliquerait que quelqu'un croit sur parole les affirmations de l'IA, selon les experts interrogés par le Washington Post.

Lucie Lequier