BFM Business

Présidentielle américaine: comment les réseaux sociaux se préparent à la vague de fake news

Des électeurs votent à Arlington, en Virginie, le 18 septembre 2020, premier jour autorisé pour le vote en personne anticipé pour les élections présidentielle et parlementaires américaines du 3 novembre 2020

Des électeurs votent à Arlington, en Virginie, le 18 septembre 2020, premier jour autorisé pour le vote en personne anticipé pour les élections présidentielle et parlementaires américaines du 3 novembre 2020 - ANDREW CABALLERO-REYNOLDS © 2019 AFP

Critiqués lors de la dernière élection présidentielle, les réseaux sociaux ont déployé de nouveaux dispositifs pour éviter la diffusion de fausses informations sur leur plateforme.

Lors de la dernière élection présidentielle américaine, les réseaux sociaux ont été critiqués pour leur gestion des fausses informations. Cette fois, les plateformes ont mis en place de nouvelles politiques pour tenter de limiter leur diffusion.

Facebook entend redorer son image

Chez Facebook, 35.000 employés se consacrent à la sécurité des utilisateurs sur le réseau. 15.000 d'entre eux sont chargés de la détection de contenus illégaux, violents et haineux, et 500 se dédient spécifiquement à la lutte contre l'ingérence dans les campagnes politiques. 

  • Les publicités politiques

En amont de l'élection, Facebook a pris une décision forte concernant les publicités politiques. Le réseau social a longtemps hésité à les interdire, comme le fait Twitter depuis 2019, partout dans le monde. Le réseau social a finalement décidé de les bannir une semaine avant le scrutin américain. Cette règle ne s'applique qu'aux nouvelles publicités, celles mises en ligne auparavant susbistent. Elle restera en vigueur jusqu'au résultat définitif de l'élection.

Sur le sujet précis des fake news, Facebook a toujours eu pour doctrine de laisser toutes les publicités en ligne, même celles contenant des informations erronées. Sauf en cas d'incitation à la violence ou au terrorisme et, depuis peu, de messages négationnistes ou de fake news sur la pandémie. Les publications incitant à ne pas voter sont également interdites.

"2,2 millions de publicités ont été rejetées" et "120.000 publications Facebook et Instagram ont été retirées pour tentative d'entrave à la participation au scrutin", avait révélé dans le Journal du Dimanche, le vice-président de Facebook, Nick Clegg.

Par ailleurs, pour éviter que des forces étrangères n'interfèrent et diffusent de fausses informations, Facebook oblige désormais les personnes qui payent ces publicités politiques à résider aux Etats-Unis. Et un outil permet de vérifier qui les a achetées, ainsi que le montant dépensé.

  • Eviter la diffusion de faux résultats

Pendant et après le vote, Facebook affichera une bannière en haut du fil d'actualité pour indiquer à ses utilisateurs que le dépouillement des votes n'a pas encore été finalisé. Toutes les publications attribuant la victoire à un candidat avant les résultats définitifs seront signalées.

Twitter serre la vis

Pour lutter contre la diffusion de fausses informations, Twitter a décidé de supprimer les tweets qui en contiennent, sauf si leur auteur est une personnalité et qu'il est d'utilité publique de les laisser en ligne. Dans ce cas, un message d'alerte à destination des utilisateurs s'affiche. Plusieurs tweets publiés par Donald Trump ont été concernés par cette procédure.

  • Surveiller les gros comptes

Comme Facebook, Twitter va surveiller de près les potentielles revendications de victoire avant que les résultats finaux ne soient annoncés ou suffisamment précis. Ainsi, la plateforme prévoit de censurer les comptes rattachés aux deux candidats, les comptes de plus de 100.000 abonnés ou encore les comptes qui bénéficient de nombreux partages si ces derniers annoncent un gagnant prématurément.

  • Lutter contre les robots informatiques

Par ailleurs, plusieurs semaines avant l'élection présidentielle, Twitter a pris des mesures pour sensibiliser ses utilisateurs sur l'action "retweeter". Certains réseaux utilisant des fermes de "bot", des robots informatiques, se sont spécialisés dans le partage massif de messages dans le but de les rendre viraux. Des algorithmes et des humains sont chargés de repérer ces activités interdites.

Pour les contrer, les utilisateurs sont désormais incités à lire les articles avant de les partager et sont encouragés à commenter un tweet au lieu de le partager en l'état.

Concernant l'onglet "Tendances", où l'on retrouve les sujets les plus discutés, Twitter a entrepris de justifier leur présence en mettant en exergue un article ou quelques lignes de contexte.

YouTube ne prend pas de dispositions particulières

De son côté, la plateforme de Google a décidé d'interdire les vidéos sponsorisées contenant de fausses informations, sur les élections mais aussi sur la crise sanitaire. Les vidéos non sponsorisées ne sont pas supprimées mais enterrées par l'algorithme. Elles n'apparaissent ni dans les résultats de recherche, ni dans les suggestions de vidéos.

Contrairement à Facebook, YouTube n'a pas prévu de "salle de crise" pour les élections. La plateforme prévoit de faire appel, comme le reste de l'année, à ses milliers de modérateurs humains pour surveiller les vidéos qui seront publiées, en complément de ses algorithmes de modération.

Bien avant l'élection, YouTube avait également créé un "bureau de renseignements" composé d'anciens membres des services de renseignements gouvernementaux pour surveiller l'activité des États étrangers sur Internet.

Google a décidé de ne plus diffuser de publicités électorales après la fermeture officielle des bureaux de vote, et cette politique s'étendra à YouTube. Toute publicité faisant référence à l'élection de 2020, à ses candidats ou à ses résultats, sera désactivée.

https://twitter.com/Pauline_Dum Pauline Dumonteil Journaliste BFM Tech