BFM Business

Pourquoi l'algorithme de Facebook n'a pas coupé plus tôt la vidéo des attentats de Christchurch

Yann Le Cun, directeur de la recherche fondamentale chez Facebook, était l'invité de la Librairie de l'éco sur BFM Business. Il est notamment revenu sur les enjeux des algorithmes pour les réseaux sociaux en ce qui concerne la gestion des images violentes.

Parmi les entreprises les plus avancées en matière d'intelligence artificielle, Facebook fait la course en tête. Pour cela, le réseau social peut remercier Yann Le Cun, son responsable de recherche, figure de proue mondiale de ce secteur. Car l'IA a changé "beaucoup de choses" chez Facebook, assure ce dernier, invité de la Librairie de l'éco sur BFM Business.

En particulier sur un sujet très sensible pour le réseau social, celui du filtrage d'informations "discutables" ou qu'il "vaut mieux éliminer", indique Yan Le Cun, comme les images de pornographie, de violences, de terrorisme… La masse de contenus sur Facebook est telle "qu'on ne peut pas faire cela à la main" et qu'on ne peut pas attendre non plus que ces contenus soient signalés par les utilisateurs", insiste le chercheur.

"Jeu du chat et de la souris"

L'IA est donc primordiale. Mais pas infaillible. De nombreux activistes évitent ainsi d'écrire des textes répréhensibles mais les incrustent directement dans les images. L'algorithme de Facebook doit ainsi être capable de détecter ce texte, le lire pour ensuite le supprimer. "Il y a un jeu du chat et de la souris" avec ces auteurs qui essaient de rendre la lecture la plus difficile possible, reconnait Yann Le Cun.

Le meilleur exemple des limites qu'a connu Facebook sont les attentats de Christchurch. L'auteur d'extrême droite de la tuerie, survenue en Nouvelle-Zélande le 15 mars 2019, avait ainsi filmé et diffusé en direct son massacre sur le réseau social. La vidéo est restée en ligne pendant 17 minutes avant d'être coupée. "Il y a des systèmes automatiques, qui n'étaient pas en place à l'époque, qui pourraient détecter ce genre de choses" aujourd'hui, assure le spécialiste, qui souligne que cela reste un "problème extrêmement compliqué pour les techniques actuelles".

Démêler le réel du virtuel

Cela tient d'abord au principe même du deep learning, la base actuelle de l'intelligence artificielle qui doit emmagasiner énormément de données similaires pour être capable de les reconnaitre. "Heureusement, on n'a pas beaucoup de données de massacres" indique Yann Le Cun. "Mais cela rend plus difficile" la détection des images. Cela tient aussi à la capacité de l'IA de distinguer le vrai du faux. Beaucoup de jeux vidéo ou de films d'action ressemblent parfaitement à de véritables images de guerre et l'algorithme doit être capable de faire le tri.

Yann Le Cun à la Librairie de l'éco

Directeur de la recherche fondamentale chez Facebook, Yann Le Cun est aussi professeur à New York University. Cette année, il a remporté le prix Turing 2019, équivalent du Nobel d'informatique. Il publie "Quand la machine apprend", aux éditions Odile Jacob.

Thomas LEROY