Mort de Jean Pormanove: pourquoi la proposition des Républicains de filtrer le contenu avec l'IA n'est pas réalisable

"L'impunité numérique ne doit pas exister." Dans un communiqué diffusé le mercredi 20 août, le parti des Républicains a proposé l'obligation, pour toutes les plateformes diffusant du contenu en France, d'utiliser l'IA comme outil de modération. Cette déclaration vient en réaction au décès du streameur Jean Pormanove.
Ce dernier était suivi par près de 193.000 abonnés sur la plateforme Kick, où il réalisait des défis extrême. L'homme a été retrouvé mort le 18 août, après 10 jours de live où il a été harcelé et violenté par d'autres co-streameurs. Pour le moment, aucun lien n'a été établi entre ces violences et la mort de Jean Pormanove.
"L'Arcom doit redoubler de vigilance." Dans son communiqué, le parti politique veut faire la chasse aux contenus violents en ligne. Mais pour assurer la supervision des plateforme de diffusion, les Républicains n'hésite pas à mettre l'intelligence artificielle sur la table.
"Pour lutter contre ces dérives, nous proposons que toute plateforme souhaitant diffuser en France soit soumise à une exigence claire et contraignante : intégrer un dispositif d'intelligence artificielle, auditable par les autorités compétentes, capable de filtrer en temps réel les contenus interdits", écrivent les Républicains dans leur communiqué.
Des IA encore trop peu fiables
Une solution loin d'être magique. En réalité, l'IA est déjà intégrée au processus de modération de plusieurs grosses plateformes. C'est par exemple le cas de Meta (Facebook, Instagram) ou Tiktok. Mais les modèles actuels peuvent encore manquer de fiabilité dans leur analyse, voire peuvent être contre-productifs.
Certains algorithmes peuvent, par exemple, accidentellement identifier un contenu comme étant répréhensible alors qu'il ne l'est pas. On appelle cela un faux positif. À l'inverse, un contenu peut passer sous les radars et être validé par l'IA, malgré du contenu inapproprié. On parle ici de faux-négatif. C'est pourquoi ces IA servent encore aujourd'hui d'assistantes aux modérateurs humains.
Tiktok avait annoncé plus tôt dans le mois, la suppression de 150 postes de modérateurs en Allemagne au profit de l'IA. Ce revirement a provoqué l'indignation des salariés qui pointaient le manque de fiabilité d'un tel outil. Une vision pourtant partagée par la porte-parole de Tiktok qui déclarait : "L'IA n'est pas en mesure d'identifier vraiment des images ou des vidéos problématiques, surtout lorsqu'il s'agit de contenu sophistiqué".
Une proposition non-conforme au DSA
Certes, certaines plateformes bénéficient de leur propre IA pour surveiller leur contenu, mais l'utilisation de l'outil à des fins de modération ne relève d'aucune obligation. C'est d'ailleurs l'autre mur auquel se confronte cette proposition des Républicains.
Le DSA (Digital Services Act), texte européen qui régule l'espace numérique depuis 2023, est notamment en charge de ce type d'obligation. Ainsi, intégrer un tel dispositif de modération automatisé en France, relève du droit européen, non pas du droit français. Or, rien ne spécifie pour le moment dans le DSA que l'IA doit être un recours obligatoire dans la modération des plateformes.