Des conservateurs veulent créer un “ChatGPT de droite”

ChatGPT est-il de gauche? Le chatbot d’OpenAI, qui a mis l'intelligence artificielle à la portée de n'importe qui, a été soumis à une série de questions pour détecter d’éventuels biais politiques par un data scientist néo-zélandais.
Selon lui, ChatGPT aurait penché de manière régulière du côté “progressiste”, “libéral culturellement”, et “démocrate”, comme le rapporte le New York Times. Le data scientist a alors entrepris la création de son propre modèle, baptisé RightWingGPT (“GPT de droite”).
Des IA "satanistes"
Ce n’est pas la première fois que le chatbot d’OpenAI est accusé d’être “woke” (sans forcément définir ce qui se trouve derrière ce mot), notamment par les conservateurs américains. Le chatbot d’OpenAI a notamment été critiqué pour accepter d’écrire un poème à la gloire de Joe Biden, mais pas de Donald Trump.

Plusieurs figures conservatrices ont donc appelé à créer leur propre modèle de langage. Elon Musk, pour qui “le risque d’entraîner l’IA à être woke (...) est mortel”, aurait essayé de recruter des chercheurs pour créer un concurrent moins "woke" à OpenAI. Le président du réseau social chrétien Gab, où se retrouvent de nombreux trolls d'extrême droite et suprémacistes, affirme que "chacune [de ces IA] est biaisée avec un point de vue libéral/globaliste/talmudique/sataniste".
Confusion politique
ChatGPT n’a pas d’opinions, car il ne réfléchit pas, mais les textes qu’il génère peuvent être orientés politiquement. Comment l’expliquer? Les milliards de textes utilisés pour l’entraîner à analyser le langage humain peuvent pencher vers un camp plutôt que l’autre. La modération humaine, utilisée par OpenAI pour limiter la création de réponses insultantes, fausses ou dangereuses, peut aussi ajouter des biais.
Mais en créant des versions ouvertement politisées de ces chatbots, leurs créateurs risquent d’entretenir la confusion entre les opinions politiques et les faits établis. RightWingGPT semble par exemple minimiser les conséquences du changement climatique, contrairement à ChatGPT, d’après le New York Times qui a pu y avoir accès.

RightWingGPT semble également minimiser l’importance d’autres problématiques, comme la place du racisme aux États-Unis, et peut reprendre de fausses informations du camp républicain, d’après le quotidien américain. Mais il n’est pas le seul dans ce cas: ChatGPT génère encore régulièrement des phrases complètement fausses, tout comme son rival chez Google.
RightWingGPT n’est pas encore accessible au public. En attendant, si vous cherchez une version ouvertement de gauche – et ouvertement parodique –, elle existe déjà: c’est ChatCGT.