Pédopornographie: en cas de doute sur l'âge, Facebook et Instagram ferment les yeux

Le patron de Facebook Mark Zuckerberg s'exprime à l'Université de Georgetown, à Washington, le 17 octobre 2019 - ANDREW CABALLERO-REYNOLDS © 2019 AFP
La lutte contre les contenus pédopornographiques en ligne est une question épineuse pour les géants de la tech. Pour les détecter et éviter leur propagation, ces derniers ont mis en place différentes politiques de sécurité, entre algorithme de repérage et moyens humains triant photo après photo.
Avec deux réseaux sociaux (Facebook et Instagram) et deux messageries (WhatsApp et Messenger), Meta est tenu d'opérer une politique rigoureuse sur cette problématique. Mais, comme le révèle le New York Times, l'entreprise a récemment modifié sa ligne de conduite pour éviter d'accuser à tort certains internautes de diffusion de contenus pédopornographiques.
Désormais, l'entreprise ordonne à ses modérateurs, en cas de doute sur l'âge d'une personne figurant sur une photo problématique, d"'assimiler l'individu à un adulte", c'est-à-dire, de ne pas signaler la publication aux autorités.
Sans qu'ils puissent véritablement quantifier le nombre de contenus passés à travers les mailles du filet, les spécialistes de la protection de l'enfance sont formels: l'entreprise a forcément manqué un certain nombre de mineurs.
"Nous voyons une large population de jeunes enfants qui ne sont pas protégés" regrette Lianna McDonald, directrice executive du Centre canadien de protection de l'enfance, auprès du New York Times.
Imprécisions
Comme le rappelle le quotidien américain, l'estimation de l'âge d'un individu à partir de son physique est complexe. Des études démontrent que les jeunes enfants se développent physiquement plus tôt que les générations passées. De plus, ce paramètre varie en fonction de nombreux critères, conduisant certains enfants à entrer plus ou moins tôt dans la puberté selon leur origine, par exemple.
Autre difficulté: la loi oblige ces géants de la tech à signaler tous les contenus relevant "apparemment" d'abus sexuels sur mineurs. Un terme juridique pour le moins flou, difficile à appréhender pour les entreprises concernées.
Ces imprécisions s'ajoutent à un travail de fourmi concernant la modération, qui consiste à analyser, chaque jour, les contenus publiés par des milliards d'utilisateurs.
Pour ce faire, l'entreprise a fait appel à Accenture, un cabinet de conseil qui a pour mission de surveiller ces contenus, et, le cas échéant, de les supprimer de la plateforme.
L'année dernière, lorsqu'un étudiant en droit américain révélait la politique adoptée par Meta en matière d'âge dans le cadre de cette collaboration, on apprenait que les employés d'Accenture "ne cautionnaient pas" le fait de "d'assimiler" un adolescent à un jeune adulte -donc majeur.
27 millions de signalements
Meta, maison-mère de Facebook et Instagram, revendique l'une des politiques de sécurité les plus efficaces dans le domaine. Pour signaler les photos ou vidéos relevant de maltraitance juvénile, l'entreprise les envoie à un centre d'information basé à Washington, qui décide ensuite de les porter ou non à la connaissance des autorités compétentes.
En 2021, selon le New York Times, Meta a signalé plus de 27 millions de contenus. A elles seules, ses quatre plateformes représentent ainsi 90% des signalements effectués auprès de cette instance.
D'autres entreprises sont allés à rebours de cette stratégie, en décidant, en cas de doute, de signaler la photo plutôt que la laisser passer. C'est par exemple le cas d'Apple, de Snapchat ou de TikTok.