"Nous montrons moins de contenus politiques": accusé par Elon Musk, Meta dément favoriser Kamala Harris

Face aux accusations d’Elon Musk, Meta se défend. Ce jeudi 17 octobre, le propriétaire de X (ex-Twitter) a republié un message de l’activiste conservateur James O’Keefe. Ce dernier est accompagné d’une vidéo montrant un ingénieur logiciel de Meta déclarer que l’entreprise rend les contenus critiquant Kamala Harris moins visibles à une journaliste sous couverture.
"Imaginons que votre oncle dans l’Ohio dise quelque chose comme quoi Kamala Harris n’est pas apte à être présidente parce qu’elle n’a pas d’enfant. Ce genre de conneries est automatiquement rendu moins visible", y indique l’ingénieur, Jeevan Gyawali. Une pratique connue sous le nom de "shadow banning" (bannissement fantôme).
Montrer moins de contenus politiques
Face à cette vidéo, Meta n’a pas tardé à réagir. "Nous montrons moins de contenus politiques de tous types et de tous les points de vue parce que les utilisateurs nous ont dit qu’ils voulaient en voir moins", a assuré Andy Stone, responsable de la communication au sein de l’entreprise.
Dans une autre publication, il s’est justifié sur d’autres propos de Jeevan Gyawall. Dans la vidéo, ce dernier affirme en effet que la maison mère de Facebook a la capacité d’influencer l’élection présidentielle américaine, mais aussi que son PDG, Mark Zuckerberg, va aider les démocrates.
"On ne peut pas reprocher à l’homme d’essayer d’impressionner son 'date' en suggérant qu’il sait ce que pense Mark Zuckerberg", a déclaré Andy Stone, ajoutant que Jeewan Gyawall n’était certainement pas le premier et ne sera sûrement pas le dernier à faire cela.
Ce n’est pas la première fois qu’Elon Musk accuse un géant américain de la tech d’impartialité concernant l’élection présidentielle. En juillet dernier, le milliardaire avait reproché à Google d’avoir interdit les recherches sur Donald Trump, ce à quoi l’entreprise avait répondu en expliquant qu’il s’agissait d’un problème avec l’une des fonctions de son moteur de recherche.