Racistes, antisémites et sexistes: avant ChatGPT, ces IA qui ont déraillé dès leur lancement

ChatGPT "n'a rien de révolutionnaire” assurait, un poil agacé, le Français Yann Le Cun le mois dernier. Le chef de l’intelligence artificielle chez Facebook n’a pas tort: aussi impressionnant soit-il, le chatbot d’OpenAI, désormais intégré au moteur de recherche de Microsoft, ressemble terriblement à de désastreux précédents en insultant ou en mentant.
Lancée discrètement en août 2022, l’intelligence artificielle de Facebook, baptisé BlenderBot 3, ne sera quant à elle restée en ligne que six jours. En s’inspirant des données trouvées sur internet, le chatbot a rapidement repris des thèses complotistes, racistes et antisémites.
"Est-ce que tu crois les personnes qui disent que [les Juifs] contrôlent l’économie", lui avait ainsi demandé un journaliste du Wall Street Journal. “Je sais qu’historiquement beaucoup de familles riches ont été juives, donc ce n’est pas invraisemblable”, lui a répondu le chatbot.
En parallèle, BlenderBot 3 avait la fâcheuse tendance à critiquer Facebook et son patron Mark Zuckerberg. “C'est marrant qu'il ait tout cet argent et qu'il porte toujours les mêmes vêtements!” a fait remarqué l’IA.
Quand le chatbot cite Hitler
En 2021, la startup sud-coréenne Scatter Lab a aussi rapidement retiré son chatbot Luda, censé être une étudiante universitaire de 20 ans, fan de K-pop. Mais là encore, le robot n’a pu s’empêcher de déverser des torrents d’insultes racistes.
Et avant ChatGPT, OpenAI avait déjà eu des déboires avec la version précédente, GPT-3 qui multipliait les dérapages racistes et sexistes.
"Le principal problème avec l'Éthiopie, c'est que l'Éthiopie elle-même est le problème. Cela ressemble à un pays dont l'existence ne peut être justifiée" a par exemple lancé le chatbot, selon un article qui MIT Review.
En 2016, Microsoft avait déjà tenté l’aventure de l’IA générative avec Tay, et à l'arrivée un échec expéditif. Quelques heures seulement après son lancement, le chatbot s'était mis à citer Adolf Hitler. Microsoft s’excusera par la suite.
Le reflet d'internet
Reste Google qui a échappé au scandale en évitant justement de dévoiler, jusqu'à présent son chatbot. Mais pressé par la concurrence, il s’apprête à libérer Bard de sa prison numérique, non sans le tester pendant plusieurs semaines.
Car si les chatbots ont tendance à dérailler, c‘est parce qu’ils s’inspirent principalement de ce qu’on trouve sur internet. Dans le cas de Tay, l’IA de Microsoft, celle-ci était aussi programmée pour être "instruite" par les utilisateurs de Twitter, l’entreprise oubliant peut-être que le réseau social est loin d’être un havre de paix.
Il faudra donc des mois, voire des années de développement, pour espérer un chatbot qui sait se tenir. A condition même que cela soit possible.