xAI attribue l'obsession de Grok pour le "génocide blanc" à une "modification non autorisée"

L'hypothèse du bug est écartée. Les 14 et 15 mai, lorsque les utilisateurs sollicitaient Grok dans les réponses d'une publication sur X avec @grok, l'IA générait du texte complétement incohérent et sans rapport avec le sujet. Il parlait systématiquement de "génocide blanc en Afrique du Sud". Ce génocide est une invention plusieurs fois démentie et sans preuve concrète.
Se posait alors la question, Grok était-il devenu fou? En tout cas, pas sans l'aide d'un tiers. Suite à la polémique suscitée par l'IA, xAI a répondu dans une publication sur X le 16 mai. L'entreprise associe l'origine de ces réponses à "une modification non autorisée" qu'aurait subi le code en charge de gérer les réponses de Grok lorsqu'on le sollicite en réponse d'une publication. L'entreprise confirme que la modification a été faite le 14 mai vers midi, date à laquelle les réponses étranges de Grok ont commencé à émerger.
"Ce changement, qui demandait à Grok de fournir une réponse spécifique sur un sujet politique, a violé le règlement interne et les valeurs fondamentales de xAI. Nous avons mené une enquête approfondie et nous mettons en place des mesures pour améliorer la transparence et la fiabilité de Grok", ajoute xAI dans sa publication.
Contrôles renforcés et plus de transparence
Suite à une confusion générale, xAI veut gagner en confiance avec ses utilisateurs et choisit de rendre disponible le "prompt de Grok" au public. Il s'agit du code qu'utilise Grok pour savoir comment il doit se comporter, les informations qu'il doit aller chercher ou le type de réponse à générer. Ainsi, tout changement fait dans ce programme sera connu du public sur la plateforme GitHub.
En parallèle, toute modification faite sur ce prompt par des employés devrait faire l'objet de contrôles renforcés assure xAI. L'entreprise annonce aussi vouloir mettre en place une équipe en charge de "répondre aux incidents avec les réponses de Grok qui ne sont pas prises en compte par les systèmes automatisés".
Cet incident en rappelle un autre similaire, survenu en février 2025. Grok avait été alors modifié par un ancien employé de xAI pour qu'il censure toute critique à l'égard de Donald Trump et Elon Musk dans ses réponses.