BFM Business

De nombreux contenus pédopornographiques transitent toujours par WhatsApp

-

- - CC, Flickr (Tim Reckmann)

Une ONG rapporte que la filiale de Facebook héberge à ses dépens des images partagées par des utilisateurs pédophiles. Le chiffrement des données rend très difficile la modération de tels contenus.

Si le chiffrement de bout en bout des conversations permet à l’application de messagerie WhatsApp de protéger nos échanges, cette technologie empêche de fait les modérateurs de supprimer les contenus illégaux. Quelques jours après la publication d’une enquête évoquant l’usage de WhatsApp par des sympathisants néonazis allemands, c’est au tour de spécialistes indiens de pointer du doigt les dangers de l’application. Cette fois, les contenus à caractère pédopornographique sont concernés.

Des centaines de milliers de comptes bannis

En mars, l’ONG indienne Cyber Peace Foundation a mené une enquête afin de repérer la présence de contenus pédopornographiques sur l’application de messagerie instantanée appartenant à Facebook. Ses équipes ont alors découvert des dizaines de groupes privés cumulant des centaines de membres actifs, rapporte le quotidien indien The Economic Times. “Face au danger d’opérer dans les zones de trafic habituelles, des proxénètes se tournent vers Internet. Il est possible que de nouveaux acteurs en profitent pour tenter de gagner de l’argent” explique le rapport de Cyber Peace Foundation.

“WhatsApp porte une grande attention à la sécurité des utilisateurs. Nous ne tolérons aucun contenu lié à des abus sur mineurs” se défend un porte-parole de l’entreprise. “Nous nous basons sur les données auxquelles nous avons accès, comme les informations liées à un groupe de discussion, pour détecter et bannir les comptes suspectés d’envoyer ou de recevoir des images pédopornographiques” complète-t-il. Dans cette optique, WhatsApp aurait banni 750.000 comptes suspects en seulement trois mois.

Les limites de l’intelligence artificielle

Le rapport de Cyber Peace Foundation fait suite à ceux de deux ONG israéliennes, publiés par TechCrunch en décembre 2018, et qui avaient évoqué des milliers de photos et vidéos pédopornographiques disponibles sur l’application. Comme le rappelait le site américain, WhatsApp compte essentiellement sur quelques dizaines d’employés pour modérer les messages échangés par sa communauté d’un milliard et demi d’utilisateurs.

Afin d’identifier les contenus illicites, WhatsApp affirmait à TechCrunch se baser sur des technologies d’intelligence artificielle. Un procédé automatisé qui semble montrer ses limites. Le rapport publié fin 2018 faisait état de groupes aux noms équivoques, associant les termes “enfant” et “sexe”. Le rapport de Cyber Peace Foundation mentionne quant à lui des groupes affichant publiquement des photos sexuellement explicites, y compris avec des enfants.

La diffusion de contenus liés à l’exploitation sexuelle des mineurs n’est pas le seul problème rencontré par WhatsApp. L’entreprise peine également à juguler le flux de fausses informations, diffusées par le biais des conversations chiffrées. Pour limiter leur portée, la firme a récemment mis en place de nouvelles limites concernant les transferts de messages. D’autres contenus illégaux, à commencer par les arnaques, ciblent également les utilisateurs de l’application.

https://twitter.com/GrablyR Raphaël Grably Chef de service BFM tech