Tech&Co
Tech

Comment les IA comme ChatGPT peuvent manipuler notre façon de penser

placeholder video
Selon une récente étude menée par plusieurs chercheurs à l’université Cornell aux États-Unis, les chatbots auraient une influence subtile sur nos opinions sans que l’on s’en rende compte.

Contrairement aux apparences, un algorithme n’est pas neutre et son interaction avec les internautes peut engendrer des dérives - à l’image des effets dits de "bulles de filtres" ou de "chambres d’écho". Et les nouvelles IA génératives comme ChatGPT ou Bard ne dérogent pas non plus à la règle.

Selon une étude publiée le 19 avril dernier par plusieurs chercheurs de l’université Cornell aux États-Unis, ces assistants d’un nouveau genre ont le potentiel de changer nos points de vue, à notre insu.

"Vous ne savez peut-être même pas que vous êtes influencé"

Lors de cette étude, les chercheurs ont demandé aux participants de rédiger un article à l’aide d’une IA sur les effets des réseaux sociaux dans le monde. Deux groupes ont ensuite été créés: l’un ayant recours à une IA plutôt positive à l’égard du sujet et l’autre muni d’un assistant plus critique. Que cela soit dans le premier ou le second groupe, tous les participants semblent avoir été influencés par le chatbot qui leur a été attribué.

Plus encore, un sondage en fin d’étude a permis de montrer que certains d’entre eux ont même changé d’avis en cours de route. "Vous ne savez peut-être même pas que vous êtes influencé", déclare Mor Naaman, professeur au département des sciences de l'information de l'Université Cornell, qui qualifie ce phénomène de "persuasion latente".

La nécessité d’une plus grande transparence des algorithmes

Cette forme d’influence psychologique est peu ou prou la même que celle analysée par les sociologues dans les interactions humaines, au travers du discours des médias de masse ou bien sur les réseaux sociaux. Si les effets d’enfermement algorithmique sont de plus en plus documentés, c’est la première fois que la recherche s’intéresse au sujet des chatbots. Les chercheurs de l’université de Cornell précisent que la meilleure défense reste la sensibilisation, en attendant que les régulateurs parviennent à exiger plus de transparence des algorithmes de ces IA d’un nouveau genre.

L’équipe d’OpenAI, l’éditeur de ChatGPT, a récemment déclaré être "engagée à résoudre ce problème [de biais] et à être transparente à la fois sur nos intentions et sur nos progrès". Cette dernière assure que ses algorithmes ne prendront pas position sur des sujets de "guerre culturelle". Un engagement plutôt encourageant et qui gagnerait à être standardisé pour éviter que de tels algorithmes puissent servir de mauvaises intentions en matière de manipulation de l’opinion.

Pierre Berthoux