BFM Tech

Chez les sous-traitants de Facebook, la modération est à géométrie variable

Facebook est une fois de plus pointé du doigt pour sa politique de modération.

Facebook est une fois de plus pointé du doigt pour sa politique de modération. - SAUL LOEB / AFP

Un journaliste de Channel 4 est parti explorer l'un des centres irlandais auxquels Facebook délègue la modération de ses contenus. Amenées à être supprimées en raison de nombreuses violations des conditions d'utilisation du réseau, certaines pages propices aux contenus islamophobes ont pourtant prospéré plus longtemps que prévu.

Facebook, extrêmement prude vis-à-vis de la nudité, arrondit les angles face aux contenus racistes. C'est en tout cas le propos d'un reportage de Channel 4, diffusé le 17 juillet et visionné en amont par The Guardian. L'enquête, pour laquelle un journaliste s'est infiltré dans un centre de modération de Facebook en Irlande, montre de quelle manière le réseau social a laissé proliférer des discours de haine et des images violentes assimilés à l'extrême-droite, pourtant contraires à son règlement.

En temps normal, la politique de modération veut qu'une page soit supprimée du réseau dès lors qu'elle comporte plus de cinq contenus allant à l’encontre des conditions d’utilisation. Cela ne vaut pas pour certaines pages populaires liées à l'extrême-droite.

Parmi elles, celle de l'activiste britannique Tommy Robinson (ou Stephen Yaxley-Lennon, de son vrai nom), fondateur d'un mouvement censé éviter "l'islamisation" des îles britanniques, ou celle du parti nationaliste Britain First. Cette dernière a été supprimée en mars 2018 mais aurait dû l’être bien avant, d’après le journaliste de Channel 4. Il aura fallu plusieurs mois après la dislocation du parti et l’emprisonnement de ses membres pour une série de crimes perpétrés à l’encontre des musulmans pour la voir disparaître. De quoi laisser de nombreux commentaires et contenus islamophobes passer entre les mailles du filet.

"L'examen bouclier"

La tolérance inédite de Facebook à l'égard de ces pages porte un nom, selon le journaliste : le "shielded review", pour "examen bouclier". Elle bénéficie en temps normal à certains médias et instances gouvernementales, et leur permet de ne pas voir leurs contenus censurés à tout bout de champ.

Un modérateur donne au journaliste une explication à ce semblant de laxisme. Il indique que, malgré la violation répétée des conditions d'utilisation du réseau, ces pages populaires ont beaucoup d'abonnés, sont très visitées et génèrent ainsi "beaucoup de revenus". Richard Allan, en charge des politiques publiques de Facebook, avance une autre explication. Il estime qu'il s'agissait avant tout d'une question de "discours politique". "Les gens débattent sur des questions très sensibles sur Facebook, y compris des questions comme l'immigration. Et ce débat politique peut-être entièrement légitime", indique-t-il.

Le documentaire ne précise pas si d'autres contenus ont bénéficié d'une telle tolérance. En réaction, Facebook a annoncé avoir pris des mesures immédiates. Une enquête a été lancée en interne pour déterminer pourquoi les modérateurs appliquaient de telles règles, en apparence contraires aux consignes de l'entreprise. Richard Allan a indiqué qu'une formation supplémentaire serait prodiguée aux modérateurs, pour qu'ils puissent rectifier le tir. Une fois n'est pas coutume, le réseau admet avoir commis des "erreurs".

https://twitter.com/Elsa_Trujillo Elsa Trujillo Journaliste BFM Tech