BFM Business

Modération: Facebook désavoué par son propre Conseil de surveillance pour son manque de clarté

Marc Zuckerberg, le PDG de Facebook

Marc Zuckerberg, le PDG de Facebook - Jim Watson - AFP

Le Conseil de surveillance de Facebook, chargé de chapeauter la politique du réseau social en matière de régulation des contenus, estime que la modération de Facebook est imprécise et bien trop opaque.

Facebook est bien souvent loin de faire l'unanimité en matière de modération des contenus. Par une décision mise en ligne ce jeudi 28 janvier, son propre Conseil de surveillance est venu s'opposer à la censure d'une publication survenue en octobre 2020.

Le contenu en question, rendu indisponible par Facebook, vantait les mérites de l'hydroxychloroquine pour traiter le Covid-19. Le réseau social s'était, dès février 2020, positionné contre la promotion de "remèdes miracle" sur sa plateforme, quitte à supprimer toute publication sponsorisée sur de tels produits.

Il était à l'époque été possible de lire sur le réseau que boire de l'eau de Javel permettait de se soigner efficacement ou que consommer du cannabis ou de l'huile de sésame garantissait une forme d'immunité contre le virus.

Facebook n'a par la suite eu de cesse de serrer la vis sur ce type de désinformation. En l'occurrence, le réseau avait estimé que la publication supprimée au sujet de l'hydroxychloroquine pouvait porter atteinte à ses utilisateurs en les poussant à s'automédiquer, rappelle le Conseil de surveillance.

Une publication à remettre en ligne

L'instance estime en fin de compte que le risque estimé par Facebook était en réalité bien plus insignifiant que prévu, la chloroquine étant essentiellement délivrée sur ordonnance. Le contenu en question n'incitait par ailleurs pas directement à s'en procurer.

Le Conseil conclut en cela que la décision de Facebook n'était pas conforme aux normes internationales en matière de liberté d'expression. Facebook est donc invité à préciser ses règles sur la désinformation en matière de santé publique et à restaurer la publication supprimée en octobre.

De manière générale, le conseil juge "floue" la politique de Facebook en matière de modération. Surtout, il estime que Facebook doit enfin se montrer davantage transparent sur un point précis: sa proportion de modération humaine, par rapport à sa modération automatique, réalisée par des algorithmes conçus à cet effet. Facebook se refuse encore à communiquer de telles données.

https://twitter.com/Elsa_Trujillo_?s=09 Elsa Trujillo Journaliste BFM Tech