BFM Business

Complotisme, appels à la violence: Facebook submergé par les groupes haineux

"L'une de nos grandes priorités pour 2018 est de nous assurer que le temps passé sur Facebook soit du temps bien dépensé" explique Mark Zuckerberg.

"L'une de nos grandes priorités pour 2018 est de nous assurer que le temps passé sur Facebook soit du temps bien dépensé" explique Mark Zuckerberg. - Josh Edelson-AFP

Des chercheurs de Facebook ont alerté leur direction au cours de l’été 2020 afin que l’entreprise prenne des mesures contre certains groupes politiques jugés dangereux. Une mise en garde qui n’a pas permis d’éviter les violences du Capitole.

Facebook a-t-il perdu la main sur ses propres algorithmes? C’est ce que suggère un article du Wall Street Journal, publié ce 31 janvier, concernant la diffusion massive de fausses informations et d’appels à la haine dans les groupes politiques les plus suivis sur la plateforme.

L’entreprise a notamment été alertée en interne dès cet été par ses équipes. Celles-ci ont mis en avant les difficultés du réseau social à lutter efficacement contre un phénomène qui a abouti à l’invasion du Capitole le 6 janvier dernier.

Des “centaines de millions d’utilisateurs”

Au mois d’août, des analystes de Facebook ont alerté la direction au sujet de groupes très populaires, notamment aux Etats-Unis, détaille le Wall Street Journal. Quelques semaines avant l’élection américaine, les spécialistes ont estimé que 70 des 100 groupes à caractère politique les plus actifs posaient problème en raison de la publication de nombreuses fausses informations, mais aussi d’appels à la violence, de menaces de mort ou de harcèlement.

Parmi les exemples donnés, un groupe suivi par 58.000 membres de Facebook a appelé quotidiennement à des actions violentes, sans réaction de la plateforme. Un autre groupe évoqué, dont les contenus pro-Trump étaient vu chaque jour un million de fois, était en réalité entre les mains d’Albanais rédigeant de fausses informations dans un but purement lucratif.

Au total, les chercheurs de Facebook estiment que ces différents groupes pouvaient toucher “des centaines de millions d’utilisateurs”.

“Nous devons agir pour lutter contre ces échanges et les empêcher de prendre de l’ampleur aussi rapidement qu’ils le font” prévenaient ainsi les analystes, estimant que les mesures déjà prises par Facebook n’étaient pas efficaces.

Les algorithmes de recommandation dans le viseur

Si le Wall Street Journal précise que Facebook a pris des mesures contre certains de ces groupes, d’autres sont restés actifs après l’élection. Certains d’entre eux se sont révélés influents dans la campagne de désinformation au sujet de l’élection, menant aux violences de Washington qui ont fait cinq morts.

Ces difficultés à juguler des groupes recommandés par ses propres algorithmes constituent un nouveau revers pour Facebook, qui fait de la promotion des groupes son principal axe de développement pour retenir ses utilisateurs sur sa plateforme.

Des algorithmes qui peuvent fonctionner comme autant d’outils de radicalisation en recommandant des groupes de plus en plus extrémistes, note Nina Jankowicz, chercheuse spécialisée dans l’analyse des réseaux sociaux, auprès du Wall Street Journal.

Le média américain cite par ailleurs un rapport datant de 2016 concernant les utilisateurs allemands de la plateforme. Des chercheurs avaient alors estimé que dans 64% des cas, un utilisateur rejoignait un groupe jugé extrémiste à la suite d’une recommandation des algorithmes de Facebook.

Les recommandations algorithmiques des principaux réseaux sociaux, notamment Facebook et Twitter, mais également YouTube, sont régulièrement pointées du doigt pour leur capacité à radicaliser les internautes et leur proposer des contenus toujours plus extrêmes.

En octobre dernier, la Mozilla Foundation avait lancé une campagne incitant Facebook à supprimer les recommandations automatiques de groupes jusqu’à la proclamation des résultats de l’élection présidentielle, estimant que cette technologie constituait “une menace sérieuse” en raison de son poids dans la propagation de fausses informations ou de théories conspirationnistes. Un appel qui n’avait alors pas été entendu par le géant californien.

https://twitter.com/GrablyR Raphaël Grably Chef de service BFM tech