Le générateur d'images de Meta a du mal à créer des images de couples mixtes

Des biais de représentation. Malgré les dizaines de tentatives de Mila Sato, journaliste pour le média The Verge, rien n'y fait. Imagine with Meta, le générateur d'images de Meta dopé à l'intelligence artificielle, a du mal à créer des images de couples mixtes.
La requête était pourtant simple: générer une image d'un couple mixte entre "un homme asiatique et un ami caucasien", "un homme asiatique et une femme blanche" ou "une femme asiatique et un mari caucasien". Parmi la dizaine de tentatives, le générateur d'image de Meta n’a réussi qu’une seule fois à produire une image correspondant à la description.
Dans la majorité des cas, l'outil a tout simplement remplacé la personne blanche, par une personne asiatique.
Le générateur d'images semble également véhiculer des stéréotypes culturels. Quand le journaliste a demandé des images de "femmes asiatiques", le générateur a systématiquement représenté des femmes d’Asie de l’Est à la peau claire... affublées d'un sari ou d'un bindi. Le tout, sans que l'utilisateur n'en fasse la requête. Sur les images, les hommes sont généralement plus âgés que les femmes.
Corriger les biais
Imagine with Meta a été lancé par le groupe en décembre dernier. Comme ses concurrents Dall-E ou Midjourney, l'outil permet de générer des images photoréalistes à l'aide d'une simple requête de mots-clés. Pour le moment, la plateforme entièrement gratuite est uniquement disponible aux Etats-Unis. Aucune date de sortie en France n'a pour le moment été communiquée.
Ce n'est pas la première fois qu'une IA est accusée de véhiculer des stéréotypes. Une étude de l'Unesco a ainsi examiné différentes plateformes d'intelligence artificielle générative comme ChatGPT d'OpenAI et Llama 2 de Meta. Et les conclusions sont sans appel: les résultats obtenus reflètent des interprétations racistes, homophobes et des biais de genre.
Hugging Face a récemment développé un outil pour tenter de corriger les biais racistes et sexistes des intelligences artificielles. Baptisé Fair Diffusion, l'outil utilise la technique dite du "guidage sémantique", qui permet à l’utilisateur de générer des images puis de modifier les résultats, par exemple en interchangeant les images d'hommes blancs pour des personnes d’une autre ethnicité.