BFM Business

L’intelligence artificielle d’Amazon confond des politiques avec des criminels

170 millions de caméras de reconnaissance faciale seront installées en Chine d'ici 2020.

170 millions de caméras de reconnaissance faciale seront installées en Chine d'ici 2020. - Dahua Technology

Une association américaine de défense des libertés pointe les limites de la technologie de reconnaissance faciale d’Amazon et met en garde contre son usage par les autorités.

Fin mai, des associations demandaient à Amazon de ne plus fournir ses solutions de reconnaissance faciale aux forces de l’ordre. Parmi elles, l’ACLU (Union américaine pour les libertés civiles), qui défend les droits et les libertés aux États-Unis. Ce 26 juillet, l’organisme a publié un rapport sur ses propres tests réalisés à partir d’Amazon Rekognition, la technologie en question. L’ACLU a demandé au logiciel développé par la firme américaine de comparer le visage des membres du Congrès à une base de données de 25.000 criminels recherchés. Sur les 535 élus, Amazon en a identifié 28 comme criminels. Un taux d’erreur de 5%, jugé bien trop important par l’association.

Les Afro-Américains surreprésentés

Parmi les 28 élus concernés par ces faux positifs, 40% sont noirs, alors que les Afro-Américains ne représentent que 20% des élus du Congrès. Un résultat qui suscite les craintes de l’ACLU. “Les personnes de couleur sont déjà disproportionnellement blessées par les pratiques policières et il est facile d’imaginer comment Rekognition pourrait amplifier le phénomène”, écrit l’association sur son site. Elle cite le cas de la police d’Orlando (Floride), qui utilise déjà la solution mise au point par Amazon.

-
- © -

Quelques heures après la publication des résultats de ces tests, une porte-parole d’Amazon a défendu l’entreprise auprès du New York Times, expliquant que l’ACLU avait testé le logiciel avec une marge d’erreur plus importante que celle qui est recommandée par Amazon -mais pas imposée aux utilisateurs. Elle affirme également que les autorités ne se fient pas uniquement à Rekognition et soumettent ensuite les résultats à un œil humain. En dépit de ces recommandations, le géant américain ne pose pas de limites aux institutions désireuses d’adopter sa technologie de reconnaissance faciale. Une intelligence artificielle par ailleurs très accessible: l’expérience menée par l’ACLU a coûté l’équivalent d’une dizaine d’euros.

https://twitter.com/GrablyR Raphaël Grably Chef de service BFM tech