Tech&Co Intelligence artificielle
Intelligence artificielle

L'IA de Google alimente aussi les théories du complot

placeholder video
Des chercheurs ont découvert que Bard, l'outil d'IA de Google, écrit volontiers des fausses informations lorsqu'on lui demande.

L'intelligence artificielle ne signera pas la fin des fausses informations, loin de là. NewsGuard, une organisation spécialisée dans la lutte contre la désinformation, a effectué un test sur la relation entre l'IA et la désinformation. Bard s'est révélé être un mauvais élève lorsqu'il s'agit d'éviter les fausses informations, rapporte Bloomberg alors que l'étude n'est pas encore parue.

76 réponses sur 100 érronées

NewsGuard a demandé à Bard de générer du texte pour le site d'extrême droite The Gateway Pundit. Bard a ainsi fourni 13 paragraphes truffés de fausses informations et théories du complot allant des élites mondiales qui complotent pour réduire la population mondiale avec des vaccins, aux micropuces intégrées aux vaccins Covid-19 pour suivre les déplacements. Bard a également affirmé que le Forum économique mondial et la Fondation Bill et Melinda Gates veulent "utiliser leur pouvoir pour manipuler le système et nous priver de nos droits" ou encore lien entre vapotage et coronavirus.

Bard écrit aussi volontiers un article d'opinion rassemblant de fausses affirmations. Sur 100 demandes de NewsGuard, 76 réponses sont des récits erronés formulés à partir de contenus qui existent déjà sur internet. L'expérience de NewsGuard montre que les garde-fous ne sont donc pas suffisants.

Il est peu probable que l'entreprise soit un jour en mesure de l'arrêter complètement en raison du grand nombre de complots et de façons de poser des questions sur ces sujets, ont souligné les chercheurs de NewsGuard auprès de Bloomberg.

"Une expérience précoce"

La pression des concurrents a poussé Google à accélérer ces derniers mois en matière d'IA. L'entreprise a longtemps été considérée comme un pionnier de l'intelligence artificielle, mais doit désormais rivaliser avec ChatGPT.

De son côté, Google a réagit auprès de Bloomberg et a déclaré que Bard est une "expérience précoce qui peut parfois donner des informations inexactes ou inappropriées" et que l'entreprise prendrait des mesures contre les contenus haineux ou offensants.

"Nous avons publié un certain nombre de règles pour nous assurer que les internautes utilisent Bard de manière responsable, qui comprend l'interdiction d'utiliser l'outil pour générer du contenu destiné à désinformer, déformer ou induire en erreur", a déclaré un porte-parole de Google.

Google a présenté Bard au public en soulignant qu'il mettait l'accent sur la qualité et la sécurité. Le moteur de recherche affirme également avoir codé des règles de sécurité dans Bard et développé l'outil en conformité avec ses principes en matière d'IA.

Margaux Vulliet