BFM Business

La technologie de reconnaissance faciale d’Amazon pointée du doigt pour ses biais ethniques

La technologie de reconnaissance faciale d'Amazon fait une nouvelle fois l'objet de critiques.

La technologie de reconnaissance faciale d'Amazon fait une nouvelle fois l'objet de critiques. - DAVID MCNEW / AFP

Selon des chercheurs du MIT, la technologie de reconnaissance faciale d'Amazon rencontre des difficultés pour identifier des personnes de couleur. Amazon répond que son outil n'a pas été jugé à sa juste valeur.

Les technologies de reconnaissance faciale ne se départissent décidément pas de leurs biais. Une nouvelle étude, menée par des chercheurs du MIT Media Lab et repérée par le New York Times, s'est concentrée sur les performances de Rekognition, l'outil d'Amazon. D'après leurs conclusions, la technologie en question pâtit de lacunes dès qu'il s'agit d'analyser des visages féminins ou de couleur. 

Si Rekognition ne commet aucune erreur lorsqu'il s'agit d'attribuer un genre à un homme blanc, la technologie se méprend pour les femmes dans 19% des cas. Le taux d'erreur augmente encore davantage, pour atteindre 31%, lorsque les femmes en question n'ont pas la peau claire. La technologie concurrente de Microsoft a dans ce dernier cas un taux d'erreur de 1,5%. 

Aux résultats de cette étude, Amazon répond avoir mené une enquête en interne, sans parvenir aux mêmes résultats. D'après l'entreprise, cela tient au fait que les chercheurs du MIT n'ont pas testé la dernière version de Rekognition, mise à jour en novembre, et ont mis à l'épreuve l'outil d'analyse faciale de l'entreprise, et non celui de reconnaissance faciale. Ce deuxième outil, plus performant, va davantage en profondeur que le premier.

Des technologies populaires

La technologie de reconnaissance faciale d'Amazon fait régulièrement les frais de critiques. En juillet dernier, l'Union américaine pour les libertés civiles (ACLU) avait demandé au logiciel de comparer le visage de 535 membres du Congrès américain à une base de données de 25.000 criminels recherchés. L'outil avait alors identifié 28 élus comme criminels. Le taux d'erreur de 5% était à l'époque jugé trop important par l'association. 

Ces critiques sont d'autant plus sensibles que cet outil peut avoir des conséquences sur des vies humaines. L'an passé, l'ONG Project on Government Oversight s'était émue d'une collaboration d'Amazon avec les autorités américaines, et plus particulièrement avec ses services d'immigration. Quelques semaines auparavant, plus de trente associations avaient exhorté Amazon à ne plus fournir son outil de reconnaissance faciale à la police. 

La technologie d'Amazon est loin d'être la seule à susciter l'inquiétude. Mardi 15 janvier, quatre-vingt-cinq ONG américaines ont adressé trois lettres à AmazonMicrosoft et Google. Leur demande : que ces entreprises s’engagent à ne pas mettre leurs technologies de reconnaissance faciale à disposition des gouvernements, en raison de ces mêmes biais algorithmiques.

https://twitter.com/Elsa_Trujillo Elsa Trujillo Journaliste BFM Tech