Tech&Co Intelligence artificielle
Intelligence artificielle

La "Cour suprême" de Facebook estime que l'entreprise ne lutte pas assez contre les deepfakes de célébrités

placeholder video
Le Conseil de surveillance affirme que Meta autorise "probablement" des quantités importantes de contenu frauduleux sur ses plateformes et exhorte l'entreprise à appliquer ses politiques de modération.

L'ancien joueur de football Ronaldo Nazário faisant la publicité d'un jeu de casino en ligne... Cette vidéo circule en boucle sur Facebook. Comme le rappelle Engadget, la publicité a été visionnée plus de 600.000 fois sur la plateforme.

Le hic, c'est qu'il s'agit d'un deepfake, ces vidéos hyperréalistes partagées en ligne, qui, grâce à l'intelligence artificielle, font dire n'importe quoi aux personnalités célèbres. Et le cas de la célébrité brésilienne est loin d'être une exception.

Depuis quelques années, les stars sont de plus en plus nombreuses à voir leur image détournée pour faire la promotion de plateformes de cryptomonnaies ou de casino en ligne. Élise Lucet, Lena Situations ou encore Emmanuel Macron ont ainsi vu leur identité utilisée pour faire la promotion de sites de cryptomonnaies ou d'investissements.

"Des quantités importantes de contenu frauduleux"

Or, selon le Conseil de surveillance, Meta (Facebook, Instagram, Whatsapp) ne fait pas assez pour faire respecter ses règles de modération. Surnommé "Cour suprême" par Mark Zuckerberg, le Conseil de surveillance, est un organe à part de l'entreprise, qui n'hésite pas à égratigner les dirigeants de l'entreprise sur les questions de modération.

Et comme il l'indique, la publicité usurpant l'identité de Ronaldo Nazário a été signalée plus de 50 fois comme une arnaque. Pourtant, Facebook, après avoir mis un certain temps à supprimer la publicité, n'a pas retiré la publication associée.

Le conseil estime ainsi que l'entreprise "autorise probablement des quantités importantes de contenu frauduleux sur ses plateformes". Il affirme que cette affaire met en lumière des failles fondamentales dans la manière dont Meta aborde la modération des contenus frauduleux signalés impliquant des célébrités et des personnalités publiques.

Selon les règles de Meta, l'entreprise n'applique la politique "qu'en cas de signalement afin de s'assurer que la personnalité n'a pas réellement approuvé la publication" et que "l'interprétation de la notion de 'fausse identité' par les modérateurs pouvait varier selon les régions et entraîner des incohérences dans l'application de la loi." Résultat, un volume important de contenus frauduleux passe entre les mailles du filet.

Miser sur la reconnaissance faciale

Le Conseil de surveillance exhorte ainsi le groupe à mettre à jour ses directives internes, et à donner aux modérateurs les moyens et la formation appropriée pour identifier les deepfakes.

De son côté, un porte-parole de Meta affirme que de "nombreuses affirmations du conseil de surveillance sont tout simplement inexactes".

"Les escroqueries ont gagné en ampleur et en complexité ces dernières années (...) À mesure que cette activité est devenue plus sophistiquée, nos efforts pour la combattre se sont intensifiés. Nous testons l'utilisation de la reconnaissance faciale, luttons activement contre les escroqueries et aidons les utilisateurs à se protéger grâce à de nombreux outils de sécurité et avertissements sur les plateformes", ajoute le porte-parole.

En effet, depuis mars dernier, l'entreprise teste la reconnaissance faciale pour lutter contre les publicités frauduleuses. Concrètement, si les systèmes de modération existants de Meta suspectent qu'une publicité peut être une arnaque, la reconnaissance faciale entre en jeu. Le dispositif va alors comparer les réclames avec les photos présentes sur les profils officiels des comptes Instagram et Facebook des célébrités. S'il y a une correspondance entre les deux clichés, la publicité est alors automatiquement supprimée.

Salomé Ferraris