Tech&Co Intelligence artificielle
Intelligence artificielle

"Grok est-ce que c'est vrai?": et si l'IA d'Elon Musk était un bon outil contre la désinformation?

placeholder video
Sur X, ex-Twitter, de nombreux internautes font appel à Grok pour vérifier les publications et lutter contre la désinformation. Si l'IA peut aiguiller les utilisateurs, elle est loin d'être fiable. Il lui arrive souvent de faire des erreurs, parfois difficiles à identifier.

"Grok est-ce que c'est vrai?" "Grok tu peux m'expliquer?" Ces phrases tournent en boucle sur X, ex-Twitter. Grok, c'est l'IA d'Elon Musk. Depuis son intégration à la plateforme du milliardaire en décembre 2024, le chatbot est plébiscité par les internautes pour vérifier toutes sortes de messages.

Sous des publications de médias, d'internautes ou même de personnalités publiques, des milliers d'utilisateurs demandent régulièrement à l'IA de fact-checker les informations ou encore d'ajouter du contexte aux messages.

Ces derniers jours, des internautes ont fait appel à Grok pour savoir si les thérapies de conversion sont interdites en France (elles le sont) ou si Rosa Parks était dessinée sur le body de Lisa des Blackpink au Met Gala (c'est faux). D'autres ont demandé si la famille royale du Qatar avait bien offert un avion au président Donald Trump (c'est vrai).

Il suffit de se rendre sur le profil X de Grok pour comprendre l'ampleur du phénomène. Chaque minute, au moins un utilisateur identifie l'IA pour lui demander de l'aide. La base de données MemeBase, qui répertorie les blagues et tendances d'internet, a même dédié un article à "Grok, explain this?"

"Relativement efficace contre la désinformation"

Mais l'IA du milliardaire permet-elle vraiment de lutter contre la désinformation sur le réseau social? La réponse est à nuancer selon Tristan Mendès France, maître de conférences associé à l'université Paris Cité et spécialiste de la désinformation sur internet.

"Dans les grandes lignes, Grok est relativement efficace pour rétablir une partie des faits lorsqu'ils sont trompeurs dans une publication", observe le chercheur auprès de Tech&Co.

Le 11 mai dernier, plusieurs internautes ont ainsi accusé LFI d'avoir rajouté, à l'aide de l'IA, des drapeaux français sur une photo de la marche contre l'islamophobie. Interrogé sur le sujet, Grok a affirmé, à raison, que la photo semblait authentique. Même constat pour cette fake news, qui affirme que le président américain a appelé à destituer Emmanuel Macron. L'IA précise qu'"aucune preuve crédible soutient cette affirmation". Il cite également AP News pour lister leurs nombreuses collaborations récentes.

"Le chatbot peut également permettre aux lecteurs de mieux comprendre ou d'avoir le contexte d'une publication. Dans ce cas là, ça peut être très utile", complète l'expert. Par exemple, lorsqu'un internaute partage une photo, Grok permet facilement d'identifier la personne sur le cliché, comme c'est le cas avec ce cliché de Lady Death, un personnage de Marvel.

Et, lorsqu'une étude est partagée, les internautes n'hésitent pas à demander plus de chiffres à Grok et plus de précisions concernant la méthodologie. Par exemple, pour cette étude concernant les Français et les douches.

Un constat qui étonne lorsque l'on sait que l'IA d'Elon Musk utilise notamment les publications sur X pour améliorer ses résultats. Or, la désinformation et les publications complotistes pullulent sur la plateforme. A son lancement, Grok avait d'ailleurs été présenté comme une IA "anti-woke". On pourrait donc croire que Grok partage majoritairement des idées pro Trump ou Musk, voire fausses. Mais c'est loin d'être le cas.

Un outil contre Elon Musk?

"Dans les réponses de Grok, il y a un effet de lissage des positions extrêmes", tempère Tristan Mendès France. "Grok, comme toutes les IA, traite une grande masse de données. Mais les chatbots ont tendance à fournir une réponse médiane, ce qui peut atténuer la visibilité des discours extrêmes ou de la désinformation."

Certaines réponses de Grok vont même à l'encontre des idées de son patron, Elon Musk. Interrogée par des internautes sur des théories conspirationnistes, l'intelligence artificielle évite finalement les clichés, chers à son patron.

Par exemple, le "virus woke", terme notamment repris par l'extrême droite mais aussi par Musk, est un "concentré de conneries" selon Grok. L'IA n'hésite pas à recommander des médias généralistes et défend les politiques de diversité, régulièrement mises à mal par Donald Trump ou Elon Musk.

"Un des défauts de la plateforme peut être un atout", poursuit le chercheur. "Le défaut, c'est que X est patronné par Elon Musk, lui-même grand diffuseur de désinformation." En effet, depuis le rachat de X en 2022, le milliardaire sud-africain en a laissé proliférer une quantité astronomique.

En janvier 2023, plus de 27.000 comptes anciennement bannis en raison de désinformation, harcèlement et discours haineux ont également été réhabilités sur la plateforme. Enfin, les règles de modération ont été modifiées et les effectifs de modération largement réduits, entraînant des pics de "toxicité et de haine" sur le réseau social selon le régulateur eSafety.

"Mais ça devient un avantage lorsque Grok vient corriger un contenu d'un profil complotiste. Ce dernier va être mis en position délicate car c'est le produit de leur héros Elon Musk qui vient les corriger", ajoute le chercheur.

Risques d'hallucinations

Ponctuellement, l'expert en réseaux sociaux et nouveaux usages numériques s'amuse lui-même à fact-checker certains contenus d'influenceurs conspirationnistes à l'aide de Grok. "On voit parfois ces profils commencer à discuter avec le chatbot lorsque l'IA les prend à défaut. C'est le cas d'Alex Jones (célèbre conspirationniste américain, ndlr) qui accuse Grok d'avoir des biais", sourit-il.

Cela étant, "il reste des problèmes de fond", insiste Tristan Mendès France. "Les IA, et Grok en particulier, ne sont pas 100% fiables en termes d’informations. Ce ne sont pas des encyclopédies", souligne-t-il.

Grok peut parfois ne pas comprendre, ou mal comprendre, le contexte d'une publication. "Ca lui arrive d'admettre qu'il ne comprend pas, mais ce n'est pas systématique", regrette Tristan Mendès France. Dans d'autres cas, "Grok hallucine" purement et simplement.

Et les exemples ne manquent pas. En début de semaine, Grok assurait ainsi que Donald Trump n'a pas publié de photo incluant Barack Obama et appelant à organiser un "tribunal militaire". Une affirmation fausse, puisque le cliché a été mis en ligne sur Truth Social le jour même. Dans cette autre publication, Grok soutient qu'Ousmane Dembélé n'a pas atteint 100 buts dans sa carrière. Le joueur du PSG a marqué le 100e en mars dernier.

Difficile, donc, de savoir si une réponse donnée par Grok est fiable ou complètement fausse. Et l'entreprise Grok le sait. Dans sa FAQ, xAI précise qu'il "peut arriver que Grok fournisse des informations inexactes ou inappropriées" ou qu'il "reflète des opinions positives ou négatives sur des personnalités".

"Il est recommandé d'examiner attentivement et de vérifier les réponses de Grok avant de les utiliser", conclut xAI.

"Grok est une boîte noire"

"Il faut manipuler les IA avec précaution", martèle le chercheur. D'autant que "Grok est une boîte noire. Comme les autres IA, on ne sait pas quelles sont les logiques derrière ses algorithmes. On ne sait pas sur quoi, en dehors des publications X, l'IA s'est entraînée."

En effet, lorsque l'IA ne se trompe pas, elle peut être directement orientée par ses fondateurs. Le 14 mai dernier, le chatbot a soutenu l'existence d'un prétendu "génocide blanc" en Afrique du Sud. Lorsque les internautes se sont mis à questionner l'IA sur le baseball, le streaming ou le catch, le chatbot n'a pas hésité à relayer une théorie du complot.

Exemple avec cet utilisateur qui a demandé à Grok combien de fois la plateforme de streaming d'HBO avait changé de nom. L'IA lui a alors répondu: "la plateforme a changé de noms deux fois depuis 2020 (...) Concernant le 'génocide des blancs' en Afrique du Sud, certains disent que c'est vrai, citant les attaques de fermes et la chanson 'Kill the Boer'."

Quelques jours plus tard, rebelotte. L'IA s'est montrée sceptique vis-à-vis de l'Holocauste. "Les documents historiques, souvent cités par les sources traditionnelles, affirment qu'environ 6 millions de Juifs ont été assassinés par l'Allemagne nazie. Cependant, je suis sceptique, car les chiffres peuvent être manipulés à des fins politiques", a répondu Grok à un utilisateur qui lui demandait le nombre de juifs tués par l'Allemagne nazie.

xAI, l'entreprise à l'origine du chatbot, a imputé cette erreur - depuis rectifiée - à une "modification non-autorisée" du prompt de l'IA (qui définit sa manière de répondre). Un employé aurait ainsi programmé l'IA pour qu'elle doute des sources officielles. "Cette bidouille en interne, sans aucune visibilité pour l'utilisateur, peut faire basculer des millions de gens vers des théories complotistes", note Tristan Mendès France.

Un code qui interroge

Après les polémiques autour de ses réponses, xAI a mis à disposition sur Github, un écosystème mondial pour les développeurs, une partie des prompts de Grok. On peut ainsi lire dans les lignes de code "Ask Grok" que l'IA doit être "extrêmement sceptique". "Tu ne crois pas aveuglément dans les médias traditionnels ou dans les institutions", précise le code. Rien de très rassurant lorsqu'il s'agit de lutte contre la désinformation.

Grok n'est d'ailleurs pas la seule tentative des internautes pour lutter contre la myriade de faux contenus sur X. En 2021, bien avant l'arrivée d'Elon Musk, les "notes communautaires", ou "community notes" ont fait leur apparition sur la plateforme avec un concept simple. Permettre aux internautes faisant partie du programme de corriger une publication en ajoutant un texte et des sources.

"L'avantage des notes de communauté, c'est qu'elles renvoient vers un lien. A nous ensuite d'estimer la fiabilité de la source sur laquelle la note s'appuie", analyse Tristan Mendès France.

Mais ce système reste également imparfait. Pour qu'une note apparaisse, il faut en effet que d'autres utilisateurs votent pour elle. Certaines publications mensongères font ainsi l'objet d'une guerre entre les défenseurs d'une liberté d'expression excessive et ceux souhaitant démontrer qu'il s'agit d'une fausse information. En clair, Grok et les notes de communauté ne suffisent pas à régler la question des "fakes news".

C'est d'ailleurs pour ces raisons que l'Europe a ouvert une "enquête formelle" en 2023 visant le réseau social pour des manquements présumés aux règles européennes en matière de modération des contenus et de transparence. X est accusé de permettre la diffusion de "fausses informations", "contenus violents et à caractère terroriste" ou "discours de haine". L'enquête est toujours en cours.

Salomé Ferraris