BFM Tech

Demain, cette intelligence artificielle censurera peut-être les propos haineux

-

- - DR

L’équipe de recherche de Yahoo a développé une nouvelle méthode pour comprendre automatiquement le sens d’une suite de mots injurieux et pouvoir ainsi modérer plus rapidement d'éventuels débordements.

La semaine dernière, Twitter bannissait définitivement Milo Yiannopoulos, un éditorialiste controversé habitué à déverser des propos haineux sur la plate-forme. Au lieu de tergiverser pendant des mois sur son exclusion potentielle, le site de micro-blogging aurait peut-être pu utiliser un algorithme qui vient tout juste d'être concocté par l’équipe de recherche du groupe Yahoo. D'après la MIT Technology Review, il serait capable de détecter des propos injurieux avec une efficacité encore jamais vue.

Racisme, homophobie, antisémitisme, sexisme, les commentaires haineux et les harcèlements se multiplient sur les réseaux sociaux. Jusqu’à maintenant, les modérations automatiques fonctionnaient avec une liste noire de mots-clefs, la présence de certaines ponctuations ou encore des éléments syntaxiques spécifiques. Les chercheurs de Yahoo ont repris toutes ces anciennes techniques et ont innové.

La nouvelle méthode du "word embedding"

Tout d’abord, ils ont constitué une base de données de messages qui avaient été bannis par un modérateur humain. Ils ont ensuite utilisé la méthode dite du "word embedding" pour automatiser la compréhension du langage. Elle consiste à représenter le sens d'un mot sous la forme de vecteurs de plusieurs dimensions, contrairement à une approche sémantique plus classique qui lui accorde une dimension positive ou négative. En clair, la méthode permet de reconnaître qu'un ensemble de mots forment une formule injurieuse, alors que les mots pris séparément ne le sont pas. Dans cette configuration, l’algorithme de Yahoo a été capable à 90% de détecter un commentaire haineux.

Les chercheurs en intelligence artificielle ne se font cependant pas d’illusion. Il reste extrêmement difficile pour une machine de repérer les insultes. Il faudrait déjà que les chercheurs puissent fournir aux machines la "puissance cérébrale" nécessaire à la compréhension fine du langage. Un ordinateur, à l'heure actuelle, n'est pas capable de saisir une phrase ambiguë ou parcourue par un sous-entendu. Mais, comme dans tous les domaines touchant l'intelligence artificielle, c'est le dernier 0,1% qui sera le plus difficile à atteindre. En l'occurrence, la tâche pourrait même paraître impossible.

Parce que la langue évolue, parce que des termes injurieux ne le sont pas forcément quand ils sont utilisés par certaines personnes dans un contexte particulier. Parce que, aussi, chacun perçoit les choses différemment.

"Donnez dix tweets à un groupe de personnes. Elles seront rarement d’accord sur ce qui peut être classé comme injurieux, alors imaginez comme ce serait difficile pour un ordinateur", a confié le chercheur Alex Krasodomski-Jones au MIT Technology Review.

Le temps n’est pas encore venu où les ordinateurs seront capables de filtrer les contenus abusifs aussi bien qu’un cerveau humain. Dans un monde où les intelligences artificielles sont de plus en plus présentes et contrôlent des pans de plus importants de nos vies, on peut même se demander si confier la liberté d'expression à une machine est une bonne idée.

Amélie Charnay