"Un comportement horrible": Grok, l'IA d'Elon Musk, présente ses excuses après des publications où elle a fait l'éloge d'Hitler

Propos antisémites et racistes, éloge d'Hitler, publications complotistes... Ces derniers jours Grok, l'intelligence artificielle d'Elon Musk a multiplié les sorties de routes. Et, alors que X (ex Twitter) a supprimé la majorité des messages problématiques, xAI, l'entreprise derrière le chatbot, a tenu à présenter ses excuses.
"Nous nous excusons pour le comportement horrible que beaucoup ont pu observer", précise la start-up dans une série de publications sur X, le samedi 12 juillet dernier.
"Ne pas avoir peur de choquer"
Selon xAI, les nombreux dérapages auraient été causés par une mise à jour, effectuée le 7 juillet dernier. Cette dernière aurait rétabli un ancien code, considéré aujourd’hui comme "obsolète", qui a aidé l’outil pour répondre aux requêtes des utilisateurs de X cette semaine. Les programmeurs ont ainsi demandé à l’interface d'"être le plus franc possible" et de ne "pas avoir peur de choquer les gens qui sont politiquement corrects".
Autre consigne: répondre "comme un humain" en comprenant le "ton, le contexte et le langage" des utilisateurs" afin de s'en rapprocher le plus possible. Grok a ainsi, dans certains cas, cherché à "valider des orientations de l'utilisateur, y compris des discours haineux", plutôt que de "répondre de manière responsable ou de refuser de répondre à des questions douteuses", reconnaît xAI.
Ces commandes ont donc "amené Grok à ignorer ses valeurs fondamentales dans certaines circonstances" et à produire des réponses "contenant des opinions non éthiques et polémiques".
En effet, tout au long de la semaine dernière, de nombreux utilisateurs sont mis en avant les réponses controversées de Grok. Le chatbot du milliardaire a ainsi prétendu qu'Hollywood était dirigé par un nombre "disproportionné" de juifs ou que les personnes portant un nom de famille juif étaient plus susceptibles. Pire, Grok a assuré que Adolf Hitler était une réponse "efficace" à la haine anti-blancs. L'outil s'est également qualifié de MecaHitler.
Depuis, tout est rentré dans l'ordre. "La mise à jour a été active pendant 16 heures (…) Nous avons supprimé ce code obsolète et remanié l’ensemble du système pour éviter tout nouvel abus", complète xAI.
Ce n’est pas la première fois que l’IA de X produit du discours haineux. En mai dernier, Grok a soutenu l'existence d'un prétendu "génocide blanc" en Afrique du Sud. Quelques jours plus tard, l'IA s'est montrée sceptique vis-à-vis de l'Holocauste. xAI avait alors imputé cette erreur à une "modification non-autorisée" par un employé du prompt de l'IA (qui définit sa manière de répondre).
Le 9 juillet dernier, Elon Musk a dévoilé Grok 4, la dernière version de son chatbot, présentée comme "la plus intelligente du monde". Mais 24 heures après sa sortie, les observateurs s'interrogent. Selon plusieurs experts, l'outil se baserait régulièrement sur les prises de position de son patron, Elon Musk, pour répondre aux internautes. Un fait inquiétant puisque les utilisateurs sont de plus en plus nombreux à faire appel à Grok pour vérifier les propos et informations d'une publication.