Google explique pourquoi son intelligence artificielle peut raconter n'importe quoi

Après les moqueries vient le temps des explications. Quelques jours après avoir été la risée des réseaux sociaux lorsque Gemini, son intelligence artificielle générative, a conseillé à un utilisateur de la colle pour confectionner une pizza, Google se justifie.
Aux Etats-Unis, l'IA a été intégrée en haut des résultats de recherche pour "offrir une meilleure expérience". Elle s'inspire donc des résultats en fonction de la recherche effectuée pour proposer un résumé sans avoir donc besoin - en théorie - d'aller sur un site internet, et donc de quitter Google.
Sauf que tout ne s'est pas passé comme prévu puisque outre la pizza à la colle - pour mieux faire adhérer le fromage, des utilisateurs ont également noté que Gemini conseillait aussi de... manger des pierres.
Des images manipulées pour critiquer Gemini
Si des correctifs ont depuis été apportés, le mal est évidemment déjà fait. Cela a donc poussé Google a réaliser une note sur son blog arguant que les réponses de Gemini était dues à un "manque de données", mais aussi en raison des questions étranges posées par les internautes.
Liz Reid, la responsable de la recherche, explique que ces exemples certes peu convaincants ne reflète pas vraiment la réalité. La plupart du temps, l'IA apporte d'ailleurs "une grande satisfaction" à ceux qui l'utilisent dans Google, assure-t-elle.
"Rien de tel que des millions de personnes utilisant la fonctionnalité IA pour faire des recherches inédites," explique-t-elle, regrettant que certains cherchent à mettre en défaut Gemini avec "des recherches absurdes destinées à produire des résultats erronés."
Par ailleurs, elle dénonce aussi "un grand nombre de captures d'écran truquées" montrant de faux résultats donnés par Gemini, dans le but de la décrédibiliser.
Dans tous les cas, Google joue gros avec l'ajout de Gemini à son moteur de recherche qui est de plus en plus contesté pour des résultats parfois jugés comme étant de moins en moins bons.