Pédopornographie: quand les IA génératives servent à inonder le web d'images de synthèse d'abus sexuels sur mineurs

Un garde civil espagnol parcourt des images sur son ordinateur alors qu'un jeune de 17 ans est soupçonné d'avoir utilisé l'IA pour générer des photos de ses camarades nus, le 27 juillet 2025. - HANDOUT / Guardia Civil / AFP
Pour la première fois, une étude de l’Internet Watch Foundation (IWF), portée à notre attention par France info, a identifié des images d’abus sexuels sur mineurs générées par l’intelligence artificielle et diffusées via un site de chatbot. Accessible depuis le web "en clair", ce site se présente comme un espace d’interactions inoffensives avec des personnages virtuels.
Mais en réalité, il permet à ses utilisateurs, via un canal caché, d’accéder à des chatbots simulant des scénarios sexuels explicites avec des enfants, certains accompagnés d’images générées par IA.
Entre juin et août 2025, l’IWF a recensé 17 signalements de ce type de contenus, dont 94 % relèvent de "nudité et poses sexuelles". Ils mettent majoritairement en scène des enfants de 11 à 13 ans, même si un cas particulièrement inquiétant concerne un enfant âgé de seulement 7 ans. Si les analystes de l’IWF n’ont évidemment pas généré eux-mêmes des images de ce genre, ils ont pu constater que le site et ses utilisateurs créaient activement ces contenus criminels.
"Les progrès de l’IA sont rapidement exploités à des fins malveillantes"
L’étude souligne que ces pratiques sont prohibées au Royaume-Uni, où elle a été réalisée, et où les autorités peuvent ordonner leur suppression. Parallèlement, un projet de loi visant à criminaliser spécifiquement les outils d’IA conçus pour produire de tels contenus est en préparation.
"Malheureusement, nous continuons de constater que les progrès de l'IA sont rapidement exploités par des délinquants à des fins malveillantes. L'évolution rapide des innovations technologiques signifie que la législation risque toujours d'être obsolète. C'est pourquoi les principes de sécurité dès la conception et de protection de l'enfance doivent être au cœur de la réglementation de l'IA.", relate Kerry Smith, présidente de l'IWF.
L’IWF appelle à une adoption rapide de ce texte et à une réglementation plus stricte de l’IA, intégrant dès la conception des garde-fous pour éviter de telles dérives. "Ces chatbots sont délibérément créés pour simuler des scénarios sexuels odieux avec des enfants; leur existence est injustifiable", a également dénoncé Kerry Smith.
Elle insiste sur l’urgence d’agir: "Les progrès de l’IA sont rapidement exploités à des fins malveillantes. Les nouvelles infractions prévues dans le projet de loi sur la criminalité et la police sont nécessaires, mais il faut aller plus vite".
Dans l'Union européenne, le débat sur les images pédopornographiques générées par des IA est également au centre de l'attention, mais rencontre un contretemps surprenant. Outre que ces contenus s'inscrivent dans un vide juridique, tous les pays membres ne souhaitent pas encadrer et interdire de tels contenus au niveau européen. Ainsi, certains pays préféreraient le faire à l'échelle nationale. Au grand désespoir, notamment, des associations de défense de l'enfance qui s'inquiètent de l'explosion de la disponibilité de ces images synthétiques choquantes. L'IWF rappelle que ces contenus ont pu être créés grâce à des IA entraînées à partir de vrais contenus pédopornographiques illégaux...