L'IA de Google recommande... de mettre de la colle dans sa pizza

Les intelligences artificielles (IA) génératives ne sont pas exemptes de tout reproche. Et manquent parfois de rationalité, ou de bon sens. La dernière en date à avoir fait parler d'elle? Une IA de Google nommée "AI Overviews", dont la fonctionnalité principale est de résumer - à partir d'une requête de l'utilisateur - la première page des résultats de son moteur de recherche avec l'intelligence artificielle.
À la requête "cheese not sticking to pizza" ("le fromage se détache de la pizza", en français), AI Overviews répond "vous pouvez aussi ajouter environ 1/8 de tasse de colle non-toxique à votre sauce pour lui donner plus d'adhérence".
Cette réponse incongrue serait en fait tirée d'un commentaire publié dans un fil de discussion Reddit, vieux de plus de dix ans comme le relève le média The Verge. L'IA de Google ne semble donc pas différencier l'humour et le sérieux.
Pas la première fois
Conçu pour que l'utilisateur gagne du temps dans ses recherches, ce modèle de Gemini (l'IA de Google) adapté à Google Search prend en compte des données, des documents, de la vidéo, de la photo ou de l'audio, mais pas ou peu de liens vers des sites sources ou des médias d'actualité. Ce qui peut expliquer ce genre de dérive.
Ce n'est d'ailleurs pas la première fois qu'AI Overviews donne des réponses inadéquates. Selon la machine, John Adams - 2e président des Etats-Unis - a été diplômé de l'Université du Wisconsin 21 fois, un chien a joué en NBA, NFL et LNH (les trois principales ligues de basket-ball, football américain et hockey sur glace) et Batman est en fait un policier déguisé.
Le géant américain doit continuer d'affiner son intelligence artificielle et a tenu à se défendre. Meghann Farnsworth, porte-parole de Google, a déclaré à The Verge que les erreurs provenaient de "requêtes généralement très rares" et qu'elles "ne sont pas représentatives des expériences de la plupart des gens". Elle évoque par ailleurs des exemples "isolés".
En février dernier, Microsoft avait limité à cinq les réponses de son agent conversationnel basé sur ChatGPT après que ce dernier a multiplié les dérapages dans ses requêtes, allant jusqu’à insulter ses interlocuteurs humains.
Lors du lancement de GPT-3, OpenAI avait rencontré des problèmes avec son chatbot qui multipliait les dérapages racistes et sexistes. Idem pour BlenderBot 3 - l'IA de Facebook - qui critiquait son patron Mark Zuckerberg.