BFM Business

Pourquoi un algorithme de Twitter est accusé de racisme

Twitter compte près de 10 millions de membres en France.

Twitter compte près de 10 millions de membres en France. - BFM Tech

Le réseau social est accusé d’avoir mis au point un algorithme mettant davantage en avant les visages des personnes blanches que ceux des personnes noires. La plateforme assure enquêter sur le sujet.

Une découverte fortuite cause depuis quelques heures de nombreux messages d’indignation à l’encontre de Twitter. La plateforme américaine est accusée de privilégier les visages blancs vis-à-vis des visages noirs lorsqu’elle doit afficher l’aperçu d’une image sur mobile. Afin de rendre le fil d’information plus lisible, l’entreprise recadre en effet les images sur smartphone, que chaque utilisateur peut découvrir dans leur intégralité en appuyant dessus.

Une “préférence” pour les peaux blanches?

Pour comprendre ce nouveau débat, il faut revenir au 19 septembre. Un utilisateur du réseau social publie un message évoquant un étonnant bug sur l’application de visioconférence Zoom. La plateforme dispose d’une fonction capable de remplacer l’arrière-plan de l’un des participants à une discussion vidéo, en analysant les limites de son corps et de son visage. Problème, l’interlocuteur de Colin Madland, à la peau noire, voit son visage systématiquement effacé par les algorithmes de Zoom.

Pour illustrer son propos, Colin Madland publie une capture d’écran de la discussion vidéo, au format panoramique. Il constate alors que l'algorithme de Twitter recadre systématiquement l’image sur son propre visage, plutôt que sur celui de son interlocuteur. Après Zoom, Twitter est accusé de racisme par le biais de ses algorithmes, qui semblent avoir une “préférence” pour les peaux blanches.

Rapidement, des dizaines d’utilisateurs mettent à l’épreuve l’algorithme de recadrage de Twitter, est publiant de très larges ou hautes photos, contenant à leurs extrémités les portraits de personnes noires et de personnes blanches. Avec à leurs yeux une surreprésentation de ces dernières dans les aperçus sur mobile.

L’un d’entre eux publie une image affichant les visages de Barack Obama et de Mitch McConnell, le chef républicain du Sénat. Sur deux publications, où l’emplacement des visages est inversé, la miniature générée automatiquement par Twitter choisit à chaque fois le visage de Mitch McConnell.

Pas d’impact de l’emplacement du visage

Un autre utilisateur réalise la même expérience avec les personnages des Simpson, Lenny et Carl. Le premier, à la peau blanche (ou plutôt jaune), est également mis en avant selon qu’il soit placé dans l’extrémité haute ou basse de l’image. Ces deux publications semblent accréditer l’idée d’une sélection biaisée. Sauf qu’en réalité, l’emplacement d’un visage n’est pas pris en compte par l’algorithme de sélection de Twitter.

Pour répondre à ces accusations de racisme, plusieurs cadres de Twitter s’emparent du sujet. Dantley Davis, en charge du design de l’application, assure que le choix du recadrage dépend du taux de contraste du visage, et que le visage de Colin Madland est systématiquement préféré en raison de la présence d’une barbe foncée sur sa peau blanche, peu importe sa localisation sur l’image initiale.

Il publie ainsi une version modifiée de la capture d’écran, où la barbe noire de Colin Madland est supprimée, afin de démontrer que c’est alors le visage de son interlocuteur - à la peau noire - qui est choisi.

Zehan Wang, ingénieur logiciel chez Twitter, assure quant à lui que l’algorithme de recadrage de la plateforme ne procède en aucun cas à une reconnaissance de visage. Il précise que l’algorithme a justement été modifié en 2017, après que des études de biais ethniques ont été réalisées.

Analyse des zones “saillantes”

Dans un article publié par Twitter en 2018, co-signé par Zehan Wang, l’entreprise dévoilait justement ce nouvel algorithme. Jusque-là, le logiciel tentait de détecter les visages présents sur une image afin de les placer au centre de l’aperçu, et de rendre celui-ci le plus pertinent possible. Mais les images ne contenant pas de visage posaient problème à l’algorithme, qui se retrouvait face à des éléments qu’il était incapable de trier de façon pertinente.

Pour corriger ce fonctionnement très imparfait, Twitter a décidé de modifier en profondeur son algorithme, afin qu’il détecte et privilégie les éléments les plus “saillants” d’une image. En se basant sur des études scientifiques, les spécialistes de Twitter ont défini comme zones “saillantes” celles qui contenaient des visages - ce qui contredit les récents propos de Zehan Wang, mais aussi du texte, des animaux, ou encore des éléments particulièrement contrastés.

Ce 20 septembre, Zehan Wang assure que les tests liés à ces algorithmes étaient basés sur des visages de “différentes ethnies”, et qu’aucun biais n’avait jusque-là été constaté. Comme ses collègues, il s’engage à mettre en place de nouveaux tests pour évaluer l’existence d’un biais raciste.

Dans le même temps, un développeur a créé un programme publiant 92 images standardisées, mettant côte à côte des visages de personnes blanches et de personnes noires. Dans 52 cas, Twitter a opté pour le visage de la personne noire pour l’aperçu, contre 40 sélections pour le visage d’une personne blanche. Ce qui semble aller à l’encontre de l’hypothèse d’un biais raciste de l’algorithme. Là encore, d’autres tests doivent être menés sur des échantillons plus larges.

Dans la Silicon Valley, la question des biais éthiques des algorithmes d'analyse ou de reconnaissance faciale se pose avec de plus en plus d'insistance. Plusieurs associations ont récemment accusé Amazon de fournir un outil de reconnaissance faciale biaisé aux autorités, soupçonné de cibler davantage les personnes noires.

https://twitter.com/GrablyR Raphaël Grably Chef de service BFM tech