BFM Business

Nudité: Instagram accusé de discriminer les personnes corpulentes

-

- - BFMTV.COM

Sur Instagram, la nudité est interdite. Mais des influenceurs dénoncent une différence de traitement entre les photos de personnes minces et nues et celles de personnes grosses. Il s'agirait d'un biais dans l'algorithme de modération.

La nudité sur Instagram fait débat depuis bien longtemps, notamment sur la question des tétons féminins, toujours censurés quand ceux des hommes restent autorisés. Depuis plusieurs mois, un autre constat suscite l’émotion. Les photos de personnes nues et grosses sont plus souvent supprimées que celles de corpulence mince. Pour rappel sur Instagram, la nudité est interdite. 

“Nous sommes conscients qu’il arrive parfois que des personnes veuillent partager des images de nudité à caractère artistique ou créatif, mais pour un bon nombre de raisons, nous n’autorisons pas la nudité sur Instagram”, indiquent les règles de la communauté. “Cela inclut les photos, les vidéos et les autres contenus numériques présentant des rapports sexuels, des organes génitaux ou des plans rapprochés de fesses entièrement exposées. Cela inclut également certaines photos de mamelons féminins.”

Instagram se base théoriquement sur la dimension sexuelle d’une photo de personne nue pour déterminer si celle-ci a sa place ou non sur la plateforme. Mais selon des témoignages réunis par BuzzFeed, les règles de modération ne seraient pas les mêmes pour tout le monde. 

Une influenceuse appelée Katana Fatale a raconté au média américain que la plateforme avait supprimé une photo d’elle nue et de profil, avec les mamelons cachés par sa main. Une photo à la composition classique, qu’on retrouve partout sur Instagram. Notamment sur le compte de Kim Kardashian. La photo de la star américaine est, elle, toujours en ligne et cumule 1,7 million de likes. 

Un biais de l'intelligence artificielle 

Sur Instagram, comme sur la plupart des plateformes, la modération est opérée en partie par des humains et par une intelligence artificielle. Pour lui apprendre à repérer les contenus interdits comme les photos montrant une relation sexuelle, Instagram a nourri le programme informatique d’images de scènes de sexe.

Mais des biais sont régulièrement constatés. En 2018, une étude avait ainsi montré que les logiciels de reconnaissance faciale reconnaissaient mieux les personnes avec la peau blanche que les autres. Les chercheurs n’avaient pas assez soumis à l’intelligence artificielle de photos de personnes à la peau non-blanche, créant ainsi un biais.

Sur Instagram, les utilisateurs de forte corpulence feraient face au même problème. L’intelligence artificielle chargée de modérer les contenus n’aurait pas étudié suffisamment de photos de personnes de cette nature pour déceler le contexte, comme elle le fait sur les autres photos. Avec à l'arrivée davantage de résultats faussés qu'avec des individus de corpulence moyenne.

https://twitter.com/Pauline_Dum Pauline Dumonteil Journaliste BFM Tech