Tech&Co Intelligence artificielle
Intelligence artificielle

"Nos pires cauchemars": sur le web, de plus en plus d'images pédopornographiques générées par IA

placeholder video
Des pédophiles utilisent des intelligences artificielles pour intégrer d'anciennes victimes mineures, ou des célébrités "rajeunies" artificiellement, dans des scènes d'abus sexuels. De quoi générer ce type d'images à l'infini, alerte une association britannique.

"Nos pires cauchemars sont devenus réalité." Dans les recoins les plus sombres d'internet, de plus en plus de personnes utilisent des IA génératives (des programmes du même type que Midjourney) pour créer des images pédopornographiques plus vraies que nature, selon un nouveau rapport alarmant de l'Internet Watch Foundation (IWF). Des images artificielles qui mettent parfois en scène des célébrités ou de véritables victimes de viols.

L'association, basée au Royaume-Uni, explique avoir mené l'enquête pendant un mois sur un forum du dark web. Elle y a trouvé et examiné plus de 11.000 images générées par IA. Parmi elles, près de 3.000 représentent des abus sexuels sur mineurs, et enfreignent donc la loi britannique, explique la dirigeante de l'IWF, Susie Hargreaves.

"Plus tôt cette année, nous avions averti que les images par IA pourraient bientôt devenir impossibles à différencier des images pédophiles, et que nous pourrions voir ces images proliférer. Nous avons maintenant dépassé ce point", alerte Susie Hargreaves citée par le Guardian.

Parmi ces images générées par IA, de fausses agressions sexuelles sur des célébrités mineures, des scènes BDSM impliquant des adolescents, ou même des viols de bébés et très jeunes enfants.

Certaines IA sont également utilisées pour "rajeunir" des photos de célébrités majeures, chanteuses, actrices… Photos qui sont ensuite modifiées pour être intégrées dans des images représentant des agressions sexuelles.

Le rapport évoque aussi le cas d'IA servant à "dénuder" une personne présente sur une photo, en remplaçant ses vêtements par un faux corps nu sans son consentement. En Espagne, la police a déjà ouvert une enquête après la plainte d'une dizaine de jeunes filles de 11 à 17 ans qui avaient reçu des photos d'elles modifiées de cette façon.

Anciennes victimes, nouvelles mises en scène

La plupart des entreprises qui mettent ces IA à disposition du grand public, comme Midjourney ou Dall-E 3, ont également mis en place des garde-fous pour limiter la création de contenus illégaux. Mais ces limites ne sont pas infaillibles, et d'autres IA (comme Stable Diffusion) sont modifiables par les utilisateurs – y compris pour des usages illégaux.

Certains personnalisent alors ces IA avec des photos de véritables victimes, pour générer de nouvelles images dans le même style. Les enquêteurs expliquent par exemple avoir trouvé un fichier contenant 500 images d'une véritable victime d'agression sexuelle quand elle avait environ 9 ans – et un modèle d'IA personnalisé pour créer encore plus d'images d'elle.

"Des enfants qui ont été violés dans le passé sont maintenant intégrés dans d'autres scénarios parce que quelqu'un, quelque part, veut voir ça", résume Susie Hargreaves.

Sur ces forums, des utilisateurs s'échangent des conseils et des ressources pour modifier ces modèles, souligne l'IWF. D'autres commencent même à faire la publicité de leurs modèles personnalisés, avec des abonnements payants mensuels.

L'IWF espère mettre ce sujet à l'agenda du sommet mondial de l'IA, organisé par le Premier ministre britannique Rishi Sunak du 1er au 2 novembre (auquel très peu de dirigeants internationaux ont pour le moment répondu présent). En France, le droit est clair: consulter, posséder, ou transmettre une image pédopornographique est un crime, peu importe son origine – qu'il s'agisse d'une image réelle, d'un montage photo ou d'une image générée par IA.

Luc Chagnon