BFM Business

 Comment Facebook pourrait combattre les fausses informations grâce à l'intelligence artificielle

-

- - Pixabay

Un brevet déposé par Facebook montre comment l'entreprise pourrait utiliser l'intelligence artificielle pour automatiser l'identification et la suppression de contenus contraires à ses règles d'utilisation.

Comment empêcher la propagation de fausses informations ? C’est l’une des questions les plus pressantes pour Facebook depuis que le réseau social a été accusé d’avoir permis l’élection de Donald Trump en ne faisant rien contre les faux sites d’actualité qui inventent des informations sans fondement pour des raisons économiques ou idéologiques. Un brevet déposé par Facebook aux Etats-Unis et publié début décembre montre justement comment l’entreprise pourrait s’y prendre pour automatiser la détection et la suppression de fausses informations grâce à l’intelligence artificielle. 

Ce dépôt, qui n’a pas encore été accepté par l’agence américaine en charge des brevets, date de juin 2015. A l’époque, les priorités de Facebook étaient plutôt de détecter la pornographie, le harcèlement, la racisme et les discours de haine. Mais à la faveur des événements récents, un tel système pourrait aussi s’appliquer aux fausses informations. 

L’idée de Facebook est d’entraîner un programme d’intelligence artificielle à reconnaître le "contenu répréhensible" qui n’a pas sa place sur le réseau social. Cette intelligence artificielle analyserait ensuite chaque contenu signalé par les utilisateurs comme étant contraire aux règles d’utilisations de Facebook pour lui attribuer un score, qui indiquerait la probabilité qu’il soit répréhensible. 

L'utilisateur est-il digne de confiance ?

Afin de déterminer ce score, Facebook mettrait à profit les données qu’il possède sur ses utilisateurs. Pour celui qui a signalé le contenu, le programme regardera ses signalements précédents, afin de savoir s’ils sont en général validés ou rejetés par les administrateurs. Et pour l'utilisateur "accusé" d’avoir publié un contenu répréhensible, on consultera son "historique d’abus", c’est-à-dire les contenus qu’il a postés par le passé et qui ont été supprimés car jugés contraires aux règles de Facebook. Le programme peut aussi considérer d’autres informations comme le niveau de remplissage du profil, l'ancienneté du compte, le fait qu’il soit vérifié ou non, la localisation, l’âge et le sexe.

Une dernier paramètre envisagé par Facebook pour déterminer le score pourrait s’avérer utile dans le cadre de fausses informations: la possibilité de classer les contenus par "sujets". En analysant le contexte d’une publication (utilisateurs interagissant avec le contenu, commentaires), le système serait capable de déduire de quoi parle une publication. On peut imaginer que si une fausse information devenait virale sur Facebook, cette fonctionnalité pourrait permettre d’empêcher sa propagation en repérant que d’autres publications sur le même sujet ont déjà été considérées comme fausses.

Certains signalements seront ignorés

Les signalements des utilisateurs seraient classés en fonction de leur score, ce qui permettrait de traiter en priorité ceux qui ont le plus de chance d’être véritablement répréhensibles. En dessous d’un certain score que Facebook ne précise pas, les contenus signalés seront simplement ignorés. Le brevet précise que ce système pourrait en revanche détecter des contenus répréhensibles qui n’ont pas été signalés par les utilisateurs.

Ensuite, des administrateurs vérifieront que ces contenus méritent d’être supprimés et l'indiqueront aux programmes d'intelligence artificielle. Cette étape manuelle, qui existe déjà aujourd'hui, détermine ce qu’il adviendra du contenu en question (supprimé ou laissé intact). Elle permet aussi d’entraîner davantage l’algorithme en lui montrant qu’il avait raison ou tort. Comme avec tous les programmes basés sur une forme d’intelligence artificielle appelée apprentissage machine, le système est censé devenir de plus en plus précis à mesure qu’il apprend de ses erreurs.

La prise de décision pourrait s'automatiser

Mais le but de Facebook est bien d’automatiser le procédé dans certains cas. Ainsi, l’intervention humaine ne sera plus nécessaire "lorsque l’on estimera que les modèles d’apprentissage machine, qui déterminent la probabilité qu’un contenu signalé soit répréhensible, auront atteint un niveau désiré de précision". Ce fonctionnement permettrait d'accélérer l’identification et la suppression de contenus problématiques. Dans le brevet, Facebook parle seulement d’un "réseau social" et ne mentionne jamais son propre service. Mais on se doute que la situation ingérable qui y est décrite est la sienne.

"A mesure qu’un réseau social grandit [...], le nombre de publications croît et les administrateurs peuvent être amenés à vérifier en un temps relativement court un nombre immense de contenus signalés. L’échelle de ce passage en revue peut être un fardeau pour les administrateurs et créer des délais qui les empêchent de vérifier rapidement, et potentiellement de supprimer des contenus répréhensibles."

Pas sûr que ce système soit adopté

Un rapport de la Commission Européenne sorti ce mois-ci va dans le même sens: d’après ses constatations, Facebook, YouTube et Twitter examineraient seulement 40% des signalements de contenus haineux en moins de 24 heures.

Les entreprises technologiques comme Facebook déposent fréquemment des brevets, sans forcément implémenter les technologies brevetées à leurs plateformes. Ce système pourrait donc ne jamais être intégré à Facebook, ou en faire déjà partie. Il montre en tout cas les réponses envisagées par l’entreprise pour être à la hauteur de l’immense responsabilité conférée par la gestion d’un réseau de 1,8 milliard de personnes.
Jamal El Hassani