Vidéos trafiquées: pourquoi les "deep fake" sont encore plus dangereuses que les fake news

- - VillainGuy / YouTube
Les "deep fake" inquiètent autant qu'ils fascinent. Ces outils permettent de modifier le visage et/ou la voix d’une personne pour un résultat quasi parfait. Dernier exemple en date: une fausse vidéo de Mark Zuckerberg dans laquelle le fondateur de Facebook explique avoir pris le contrôle de données volées à des milliards de personnes. Si certains "deep fake" consistent à modifier les mouvements de la bouche d'un sujet, leurs auteurs peuvent aller bien plus loin.
En début d'année, l’actrice Jennifer Lawrence avait vu ses traits remplacés par ceux de l’Américain Steve Buscemi. Une séquence démontrant les avancées technologiques en la matière. Ce faux très réussi avait été repéré par Mikael Thalen, journaliste indépendant. Son auteur serait l'internaute "VillainGuy".
Le "deep fake" sur Barack Obama
Le "deep fake" le plus célèbre concerne Barack Obama. Dans une vidéo publiée par Buzzfeed en avril, l'ancien président des Etats-Unis insulte Donald Trump "d’idiot absolu". "Nous entrons dans une ère où nos ennemis peuvent faire croire que n'importe qui dit n'importe quoi à n'importe quel moment", peut-on entendre de la bouche de Barack Obama. Ce discours n’a évidemment jamais eu lieu. Le cinéaste Jordan Peele a modifié le mouvement des lèvres de Barack Obama pour lui faire dire ce qu'il souhaitait à l’aide d’une intelligence artificielle spécialisée. La vidéo comptabilise aujourd'hui 5,5 millions de vues.
Des craintes de manipulations
Aux Etats-Unis, plusieurs élus craignent l'utilisation de ces fausses vidéos pendant la campagne présidentielle de 2020. L'agence de recherche américaine de défense liée au Pentagone, la DARPA, a d'ailleurs dépensé 68 millions de dollars pour financer des outils capables de les repérer. En France, un rapport sur la désinformation publié en septembre tire la sonnette d’alarme:
"Un plus grand danger encore, car plus subtil que la création d’un faux, est l’altération discrète d’une partie seulement d’un contenu audio ou vidéo, un discours par exemple".
Les traits de plusieurs célébrités sont déjà utilisés pour produire des "deep fake", parfois à caractère pornographique. Début janvier, l'actrice Scarlett Johansson expliquait que lutter contre ces vidéos "était inutile et une cause perdue". Pour l'instant, le trucage des vidéos n'est pas parfait. Mais les outils se perfectionnent. Des chercheurs travaillant pour l'entreprise Nvidia ont ainsi élaboré un programme informatique capable de créer des visages qui n'existent pas. Et la technologie développée par la start-up canadienne Lyrebird peut imiter n'importe quelle voix en se basant sur un enregistrement d'une minute à peine.