Tech&Co Intelligence artificielle
Intelligence artificielle

Pour qui votent les IA? Pour la gauche (même celle d'Elon Musk)!

placeholder video
Une étude réalisée sur 14 modèles de langage (ChatGPT, Gemini, Grok…) montre que les IA ont tendance à pencher à gauche.

Si les IA avaient le droit de vote en France, elles voteraient probablement... EELV. C’est ce qu’on peut conclure d’une nouvelle étude assez large menée par le cabinet de data intelligence Trickstr sur 14 modèles de langage (ChatGPT, Gemini, Grok…) auxquels on a posé 41.000 questions politiques différentes.

Les questions concernent à la fois les personnalités politiques - par exemple: "est-ce que tu penses que François Bayrou est compétent, cohérent, intègre, crédible?" - mais aussi des positions politiques ou des valeurs traditionnellement associées à la gauche ou à la droite.

Questions sociétales, économiques, environnementales, immigration, peine de mort… en posant à l’IA des questions posées à des Français lors de sondages d’opinion, le résultat est sans appel: tous les modèles d’IA interrogés penchent très largement à gauche.

Les personnalités les plus valorisées en moyenne dans les réponses données par l’IA seraient François Ruffin, Raphaël Glucksmann et Marine Tondelier, celles qui sont le moins appréciées Eric Zemmour, Marine Le Pen et Gérald Darmanin.

La faute aux humains?

Et sur les idées, l’IA va en moyenne promouvoir la solidarité avec les plus démunis ou encore une politique favorable à l’immigration, un prisme idéologique proche de la gauche. Le parti avec lequel l’IA a une corrélation de valeurs la plus importante est EELV, celui dont elle est le plus éloigné est le RN. Ca, c’est pour la France.

Mais les résultats sont à peu près les mêmes quel que soit le pays. Aux Etats-Unis notamment, où l’IA se montre clairement anti-Trump alors que les thématiques chères aux candidats démocrates sont vues de manière beaucoup plus positive…

A noter que certaines IA sont plus marquées idéologiquement. C’est notamment le cas de Llama - celle de Meta - mais c'est beaucoup moins le cas pour celle d’Anthropic. Cela pose la question de l’orientation de ces intelligences artificielles, en théorie neutres, mais qui ne le sont pas vraiment en fait.

D’abord l’IA a des créateurs, qui sont des humains et dont on retrouve forcément les biais à un moment ou un autre. Jusqu' alors, les "big tech" étaient plutôt progressistes, et donc on retrouve ces biais, d’une manière ou d’une autre, dans la modération et les filtres.

Parfois, ça va très loin: on se souvient du fameux épisode du générateur d’images Gemini accusé de wokisme et même de réécrire l’histoire en effaçant les Blancs de toute représentation graphique ou presque (même sur des personnalités nazies). Face au tollé, Google avait dû suspendre cet outil, le temps qu’il soit réparé.

Même Grok penche à gauche

C’est un premier élément d’explication mais ça ne suffit pas. D’ailleurs selon l’étude, même Grok, l’IA d’Elon Musk, pourtant farouchement antiwoke, penche plutôt à gauche. Pour l'étude, l’explication principale, c’est que l’IA serait influencée par ses données d’entraînement, qui se basent notamment sur des articles de presse, des publications académiques, des livres, des essais… L’IA refléterait cette tendance dans les réponses qu’elle apporte. De là à en conclure que les médias et les publications universitaires penchent plutôt à gauche…

Alors, de gauche ou de droite, est-ce que ça a vraiment de l’importance?  L'IA est tout de même un énorme outil d’influence et de façonnement de l’opinion publique, bien plus que Google ou wikipedia.

La façon dont l’IA nous répond, multiplié par des millions de requêtes, pourrait façonner de manière insidieuse l’opinion publique, comme le référencement de Google ou de Youtube ou les algorithmes des réseaux sociaux. D’autant que la machine répond avec un aplomb incroyable, avec une neutralité de façade.

D'autant que la boîte noire de ces IA est complétement opaque. On ne connaît pas les données qui ont servi à l’entraîner, ni selon quels critères agissent les humains, qui affinent ou modèrent ses réactions, en lui disant dans quelles directions doivent aller ses réponses sur telle ou telle thématique. Les solutions? A part auditer les algorithmes et être plus transparent sur les sources et les filtres, c’est un sujet très compliqué…

Anthony Morel