"Peste bleue": quand l'intelligence artificielle crée des événements historiques qui n'ont jamais existé

Un tremblement de terre d’une magnitude de 9,1 et un tsunami dans l’Oregon en avril 2001, la peste bleue en URSS dans les années 70 ou encore une éclipse solaire aux Etats-Unis en 2012. Ces événements ne vous disent rien? C’est normal puisqu’ils n’ont jamais eu lieu. Pourtant ils sont bien documentés, photos à l’appui.
Ces fausses images, trompeuses par leur réalisme, sont générées à partir de l'intelligence artificielle; notamment avec l’outil Midjourney. Et les publications fleurissent sur les réseaux sociaux. Sur TikTok, le compte @Alt_Uchronia est spécialisé dans la création de "fictions historiques". Suivi par plus de 38.000 personnes, l’auteur du compte avertit dans sa description: "Histoires alternatives issues d'un monde plein d'horreurs".
Derrière ce compte, il y a un Français, Aurélien. Auteur de récits imaginaires sur une "peste bleue", un crash d’avion en Islande ou encore d’un faux tremblement de terre au Chili dans les années 60, il publie des vidéos sous forme de diaporama avec un texte qui décrit le scénario fictif.

Aurélien travaille en tant que graphiste. Amateur de science-fiction, il écrit de nombreuses nouvelles. "J’ai commencé à utiliser Midjourney pour illustrer mes nouvelles", avance-t-il auprès de Tech&Co. Il publie sur son compte TikTok depuis décembre 2022. Il a remarqué que "la communauté Midjourney a explosé sur les réseaux sociaux ces derniers mois".
"Pour la peste bleue je me suis fortement inspiré de la nouvelle fantastique Lovecraft's Color Out of Space", explique-t-il, en référence au livre de H. P. Lovecraft et publié en 1927.
"Intelligence et sens critique"
Un autre de ses récits est quant à lui inspiré d’un véritable pan de l’histoire. Il évoque ainsi le véritable programme russe Venera, qui correspond à l’ensemble des missions spatiales menées par l’Union Soviétique durant les années 60 et 70. Une base historique utilisée pour un scénario "alternatif", qui a nourri des séquences vue 5,6 millions de fois sur TikTok.
Cette déclinaison imaginaire évoque un "programme secret soviétique Venera X, lancé vers 1990". "Le but de cette mission n'a jamais été déclassifié car toutes les données ont été perdues lors de la chute de l'URSS" explique la séquence. Dans son diaporama, Aurélien présente un cliché - là encore imaginé de toutes pièces - comme "la seule photo du programme soviétique Venera X". Un voyage durant lequel l’appareil soviétique aurait "capturé des formes étranges".

"J'ai eu énormément de commentaires me reprochant que je ne précisais pas qu’il s’agissait d’une histoire fictive. Depuis, j’indique systématiquement sur mes publications qu'elles relèvent d’une invention" explique Aurélien à Tech&Co.
Il est également l’auteur d'une histoire sur un tremblement de terre au Chili. "Le 22 mai 1960, un puissant tremblement de terre a frappé le sud du Chili. Des rapports ont commencé à faire état d'événements étranges dans le village de San Juan, qui semblait avoir échappé au pire de la catastrophe. Des témoins ont affirmé qu'une fissure massive était apparue dans le sol près du village et que des gaz toxiques s'en échappaient. Certains ont même déclaré avoir eu des hallucinations et avoir vu des créatures bizarres se nourrir des corps des morts" imagine l'auteur. Des photos générées par Midjourney accompagnent cette fiction.
Alors que l’accès à l’IA par le grand public fait craindre une expansion des fausses informations, de telles publications peuvent prêter à confusion.
"Je fais appel à l’intelligence et au sens critique des utilisateurs qui regardent mes vidéos. J’avertis que ce sont des fausses images. C'est à eux de faire la part des choses" se défend Aurélien.
"Un réel travail photographique"
Les images publiées sont d’un réalisme assez confondant et les améliorations de la version 5 de Midjourney y sont pour quelque chose. "Les gens pensent qu’il suffit de rentrer quelques mots-clés pour générer une image, mais c’est bien plus complexe que ça". Aurélien explique qu’un "réel travail photographique s’opère. Il faut préciser l’ouverture, les ISO, la focale, le type d'objectif et d'appareil, la lumière pour obtenir le résultat escompté".
Sur Reddit, un autre compte est spécialisé dans la production d’images historiques fictives. Le compte Arctic_Chilean est à l’origine des publications sur la fausse éclipse solaire en 2012 ou de l’invention du tsunami qui aurait frappé les Etats-Unis en 2001. Ces images impliquent des fausses photos de Georges W. Bush ou Barack Obama.

Toute une histoire fournie en détails accompagne les images: "Le 3 avril 2001. Un important tremblement de terre s'est produit au large des côtes de l'Oregon. Quelque 12 minutes après la fin du tremblement de terre, les régions côtières du nord-ouest du Pacifique ont été frappées par un important tsunami, d'une hauteur de près de 20 mètres à certains endroits. Plus de 785.000 personnes se sont retrouvées sans abri ou ont eu besoin d'un logement d'urgence".
En dessous de ces publications, des internautes s’insurgent en commentaire : "En 2025, les gens auront beaucoup à faire face à toute la désinformation. Les gens de 2100 ne sauront pas quelles parties de l'histoire étaient vraies", déplore un utilisateur. Quand d’autres tempèrent: "Tout ce qu'il fait, c'est mettre les images, la vidéo et l'audio. La plupart du temps, il suffit de vérifier la source".
Exercer l'esprit critique
Sauf que beaucoup ne prennent pas le temps de lire les descriptions, ni de vérifier s’il s’agit d’une vraie photographie. Un adolescent qui passe du temps sur TikTok pourrait-il, par exemple, ressortir ce genre de fausse information dans une copie?
"Pour l’instant, aucun de mes élèves n’en a parlé en classe ou a pu ressortir l’un de ces événements dans une copie", avance Vanessa, professeure d’histoire-géographie dans un collège auprès de Tech&Co.
"Après ce n’est pas parce qu’ils n’en ont pas parlé qu’ils en ont pas vues", nuance-t-elle. Avec ses élèves elle a notamment pu échanger sur des deepfakes - fausses photos et vidéos mettant en scène des personnalités - visant Barack Obama.
Face à ce phénomène, elle estime que son rôle est avant tout de faire de la prévention, “de faire en sorte que les élèves exercent un esprit critique”, en classe mais aussi lors de l’enseignement moral et civique "qui est le moment le plus propice".
S'adapter en permanence aux évolution de l'IA
Aude Favre est présidente et co-fondatrice de l'association FakeOff, qui regroupe 80 journalistes et fait de l'éducation aux médias et à l'image dans les établissements scolaires.
"Les choses vont très vites, c'est tellement vertigineux, c'est un sujet qui nous préoccupe au sein de l'association", explique-elle à Tech&Co. Elle confie que les journalistes découvrent ce phénomène en même temps que les élèves.
L'inquiétude concerne surtout des prouesses de l'IA: les images sont très bien faites et prennent une ampleur importante sur les réseaux sociaux.
"Nous n'avons pas de solution miracle, il reste fondamental de donner les outils pour détecter ces fausses images, de donner des automatismes et des réflexes". Aude Favre souligne le fait que l'attrait pour ces fausses images reste lié à la défiance envers les médias traditionnels.
La principale difficulté réside dans le fait que l'IA progresse très vite, l'éducation doit s'adapter en permanence aux contenus auxquels les jeunes utilisateurs sont exposés. "L'éducation aux images concerne tous les âges, les adolescents comme les adultes", conclut de son côté Vanessa.