Instagram: les algorithmes de recommandation font la promotion de réseaux pédophiles
Une enquête menée par le Wall Street Journal en collaboration avec des chercheurs de l'Université de Stanford révèle que malgré ses efforts, Instagram et ses systèmes de recommandation connectent les utilisateurs pédophiles entre eux et leur suggèrent des comptes de vendeurs de contenus pédopornographiques.
Les chercheurs ont également découvert qu'Instagram permettait à ses utilisateurs de rechercher des hashtags explicites pour trouver des comptes qui vendent des contenus pédopornographiques.
Les comptes Instagram proposant ces contenus ne le publient généralement pas ouvertement, mais affichent plutôt ce qu'ils proposent dans leur description. Ces comptes prétendent souvent être gérés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels.
Suggestions de ces comptes
Alex Stamos, directeur de l'Observatoire Internet de Stanford et directeur de la sécurité de Meta jusqu'en 2018, a réagi auprès du Wall Street Journal.
"Qu'une équipe de trois universitaires avec un accès limité puisse trouver un réseau aussi vaste devrait déclencher des alarmes chez Meta", a-t-il déclaré, "J'espère que l'entreprise réinvestira dans des enquêteurs humains."
Les chercheurs ont activé plusieurs comptes tests. Il a fallu un seul compte pour recevoir des recommandations de vendeurs et acheteurs de contenus sexuels impliquant des enfants. Suivre quelques recommandations algorithmiques est suffisant pour inonder un compte avec ce type de contenu.
Durant les tests, les chercheurs ont également découvert qu'Instagram permet aux utilisateurs de rechercher des termes associés à du contenu illégal alors que l'algorithme est censé les bannir. Seul un message d'avertissement apparaît: "Ces résultats peuvent contenir des images d'abus sexuels sur des enfants".
Instagram reconnaît des erreurs
Auprès du média américain, Meta (la maison-mère d'Instagram) reconnaît des erreurs, mais assure avoir mis en place un groupe de travail interne pour résoudre ces problèmes soulevés.
"Nous recherchons en permanence des moyens de nous défendre activement contre ce comportement", a réagi l'entreprise.
Meta dit également avoir supprimé 27 réseaux pédophiles au cours des deux dernières années et assure avoir bloqué des milliers de hashtags illégaux depuis la publication de l'enquête. L'entreprise a également empêché ses systèmes de recommander des contenus et comptes associés à des activités pédopornographiques.
Selon la loi, l'entreprise doit signaler toute image d'abus sexuel d'enfants partagée sur ses plateformes au National Center for Missing & Exploited Children (NCMEC). De janvier à septembre 2022 Instagram a signalé 6,1 millions de contenus de nudité, d'abus physique des enfants et d'exploitation sexuelle des enfants.
Même lorsqu'Instagram supprime des comptes vendant du contenu sexuel pour mineurs, ils ne disparaissent pas toujours. Selon les directives internes de la plate-forme, les sanctions pour violation de ses normes communautaires sont généralement imposées aux comptes, et non aux utilisateurs ou aux appareils.
Fin avril, une autre enquête du Guardian révélait l’ampleur du trafic sexuel d’enfants sur les réseaux de Meta. montre de quelle manière Facebook et Instagram échouent dans la lutte contre le trafic sexuel d’enfants sur ses plateformes et ne signalent pas les cas aux autorités, comme il le faudrait.