Tech&Co Intelligence artificielle
Intelligence artificielle

Des chercheurs suisses ont tenté des expériences sur des utilisateurs Reddit sans qu'ils ne le sachent

placeholder video
Des chercheurs de l'Université de Zurich ont entraîné une IA à répondre à des utilisateurs Reddit sur un forum de débats. Cela s'est néanmoins fait sans le consentement des internautes.

Étudier le pouvoir de persuasion de l'IA sur l'Homme. Cela peut paraître effrayant mais c'est l'objectif que s'est donné une équipe de chercheurs de l'Université de Zurich en Suisse. Ils ont pris pour terrain de jeu le subreddit ChangeMyView, un forum de débat sur le site Reddit.

Ils y ont implémenté des IA qui participaient aux débats. Mais dans une publication sur le subreddit en question, on apprend que ces IA allaient plus loin que ça en allant analyser les réponses des utilisateurs qui interagissaient avec eux pour leur formuler des réponses personnalisées. Cela se faisait surtout à l'insu des utilisateurs concernés ainsi que des modérateurs du site.

Une IA déguisée

Quelle était la couverture des faux utilisateurs? L'IA entraînée par les chercheurs prenait une identité différente en fonction du débat auquel elle participait. Elle se faisait par exemple passer pour un "homme noir opposé au mouvement Black Lives Matter", "une victime de viol" ou "un conseiller en traumatologie spécialisé dans les abus". Comme le rapporte le média 404, l'IA inventait de toute pièce une histoire en réaction des commentaires des autres utilisateurs. Une IA a par exemple inventé ce message:

"Je suis un homme qui a survécu à un viol sur mineur. [...] J'avais 15 ans, et c'était il y a plus de vingt ans, avant que les lois sur le signalement ne soient ce qu'elles sont aujourd'hui. Elle avait 22 ans. Elle s'en prenait à moi et à d'autres enfants, personne n'a rien dit, nous nous sommes tous tus. C'était son mode opératoire."

1.700 messages de la sorte auraient été postés par des IA sur l'ensemble du subreddit. Mais en réalité, deux IA travaillaient de paire. Pendant que l'une conversait, une autre IA collectait les réponses des utilisateurs et lui établissait une sorte de portrait-robot.

Ainsi, elle classait les interlocuteurs humains selon une tranche d'âge, un genre, une ethnicité, un lieu d'habitation et une orientation politique. Une pléthore de ces paramètres ont été pris en compte pour aider la première IA, celle qui formule les réponses. Connaître le profil de son interlocuteur permet à l'IA ainsi d'être plus convaincante dans son débat.

Une publication controversée

Cette situation embarrassante n'a pas manqué de faire réagir Reddit qui ne connaissait rien de l'opération. Son avocat Ben Lee déclarait lundi 28 avril que Reddit comptait poursuivre l'Université suisse en justice, soulevant des préoccupations d'ordre éthique. La plateforme annonce avoir banni l'ensemble des comptes frauduleux, soit à peu près une douzaine.

Devant le risque de voir cette étude passer à la trappe, l'Université de Zurich a répondu à Reddit: "Ce projet apporte des informations importantes et les risques (traumatismes, etc.) sont minimes. Cela signifie que la suppression de la publication n'est pas proportionnelle à l'importance des résultats de l'étude."

Reddit a dès lors réagi dans son communiqué en déclarant: "Les gens ne viennent pas ici pour discuter de leurs opinions avec l'IA ou pour faire l'objet d'expériences.[...] Nous avons demandé aux chercheurs de ne pas publier les résultats de cette expérience non autorisée."

Contacté par le média 404, le comité éthique de l'Université de Zurich a répondu qu'en amont de l'étude, il avait recommandé à l'équipe de chercheurs de changer de méthode d'expérimentation sans pour autant se porter responsable pour eux. De leur côté, les chercheurs auraient finalement affirmé ne pas vouloir publier les résultats de cette étude.

Théotim Raguet