"Tout le monde peut se faire avoir": Quand les vidéos générées par l'IA sur les réseaux sociaux cachent des arnaques

La vidéo est poignante, puissante, alors que les flammes engloutissent les célèbres lettres d'Hollywood. Dans une autre, un grand-père supplie les internautes de rester "dix secondes" sur sa vidéo pour sauver sa ferme et sa petite entreprise de pantoufles pour animaux. Dans une dernière, des jeunes femmes en maillot de bain reçoivent des insultes sexistes en pleine rue.
Ces contenus qui inondent les réseaux sociaux depuis quelques mois ont tout pour retenir l'attention. Pour preuve, certains d'entre eux cumulent plusieurs centaines de milliers de vues. Pourtant, ces vidéos sont entièrement fausses. Elles ont été entièrement générées grâce à un intelligence artificielle (IA).
"Même des enfants y arrivent"
La création de vidéos trompeuses à l'aide de l'intelligence artificielle ne date pas d'hier. "Il y a quelques années, la production de vidéos générées par IA était très compliquée et surtout peu crédibles", rappelle pour Tech&Co Victor Baissait, enseignant en tech. Mais l'arrivée de Veo3, l'outil de Google connu pour ses images hyper réalistes, a accéléré le processus.
"Aujourd'hui, les outils gratuits et faciles d'utilisation se sont démocratisés. Il reste encore quelques erreurs dans les vidéos, mais elles sont discrètes", poursuit l'expert. Résultat, une armée d'influenceurs artisanaux produisent à la chaîne des contenus trompeurs générés par une IA pour arnaquer et soutirer de l'argent aux internautes.
"Avec Veo3, on peut créer une dizaine voir une vingtaine de vidéos par jour", observe pour Tech&Co Ayoub Faouzi, entrepreneur et créateur de contenus sur l'intelligence artificielle. "Il suffit d'automatiser le processus avec un agent IA, de copier coller un texte et de publier les vidéos. Même des enfants de 12/14 ans y arrivent."
Et les exemples ne manquent pas. Ainsi, depuis quelques mois, dès qu'une catastrophe naturelle se produit dans le monde, elle est rapidement accompagnée par une ou plusieurs vidéos générées par l'IA. Fin juillet, une vidéo d'une vague titanesque déferlant sur une station balnéaire russe a fait le tour de Tiktok... alors qu'un véritable tsunami touchait au même moment les côtes russes. La publication a dépassé les 300.000 vues. Des vidéos d'incendies ravageurs ou de tsunamis pulvérisant un camion ont également circulé en masse cet été.
Différentes tendances d'escroqueries
Si ces contenus catastrophes cartonnent, ils semblent déjà être passés de mode sur Tiktok. Car sur les réseaux sociaux, mêmes les tendances d'escroqueries sont éphémères. "Les vidéastes se copient entre eux", note Victor Baissait. "Ils essaient de voir ce qui fonctionne le plus sur les plateformes et dès qu'une catégorie de vidéo fait des vues, ils s'engouffrent dans la brèche."
Moyennant une centaine d'euros par mois, certains arnaqueurs proposent des mini programmes automatisés, des formations et même un suivi des tendances d'arnaques pour aider d'autres escrocs à produire en masse du contenu viral. Et ils regorgent d'imagination pour suivre les dernières treneds. Au début de l'été, les vidéos amusantes autour des singes et d'autres ont fait leurs affaires. Une séquence de lapins sautant d'un trampolin a ainsi fait 72 millions de vues.
Plus récemment, ils se sont essayés aux vidéos sexistes et misogynes. Comme l'a repéré l'AFP, certains clips générés par IA prétendent montrer des jeunes femmes en bikini dans les rues d’Inde ou du Royaume-Uni. Lorsqu'elles "interviewent" des hommes dans la rue, ils leurs lancent alors des remarques sexistes ou misogynes. Là encore, ces contenus cartonnent. Certaines vidéos cumulent plusieurs dizaines de millions de vues.
Depuis quelques jours, la tendance a encore changé. Désormais, les vidéastes misent sur les personnes âgées. Le dispositif est toujours le même. Sur une musique mélancolique, une personne âgée, entièrement générée par IA, demande aux internautes de rester sur la vidéo pour sauver son entreprise. Parfois, il s'agit de pantoufles, d'autres de jouets pour chat ou des tote-bags champêtres pour "sauver des chats".
"Ma ferme va fermer mais tu la sauves en restant juste 5 secondes", assure un fermier dans une vidéo. "Les frais s'accumulent et je n'arrive plus à la garder ouverte", ajoute l'homme, alors que des images d'animaux mignons défilent. "On a décidé de vendre des pantoufles pour sauver la ferme."
Plus de 600 euros par jour
Quel que soit le format, tous ces apprentis arnaqueurs tentent de susciter des émotions fortes chez les utilisateurs, comme la peur, la pitié ou encore l'indignation. "C'est typique de l'économie de l'attention", relève pour Tech&Co Stéphanie Laporte. "L'émotion génère des partages sur les réseaux et la vidéo devient rapidement virale."
Et c'est tout l'objectif de ces créateurs de vidéos: "transformer les sentiments en revenus publicitaires", ajoute-elle. En effet, plus une publication génère des likes, plus elle sera mise en avant dans l'algorithme. Or, cet engagement génère des revenus grâce à la publicité et aux mécaniques de rémunération des plateformes.
"Ce type de contenus rapporte beaucoup de vues et donc de l'argent. Par exemple, pour un million de vues sur Tiktok, les créateurs gagnent entre 600 et 700 euros par jour. C'est encore plus sur Facebook ou Snapchat", chiffre Ayoub Faouzi.
"Avec l'automatisation, certains vidéastes partagent une dizaine de contenus par jour. Même si une seule d'entre elles atteint le million, ça reste 600 euros par jour", complète l'expert.
Dropshipping, darknet et fausses cagnottes
En parallèle, "ces profils très suivis peuvent être revendus à des escrocs contre une coquette somme sur le darknet ou directement servir de porte d'entrée à de multiples arnaques", note Victor Baissait. Les propriétaires de ces comptes utilisent ces vidéos comme un produit d'appel pour les rediriger vers d'autres sites, remplis de publicité ou d'arnaques.
C'est le cas des fameuses vidéos de personnes âgées en détresse. Après avoir fait pleurer dans les chaumières, les faux entrepreneurs incitent les internautes à acheter leurs objets artisanaux pour les aider à redresser leur business. Mais il s'agit de dropshipping, une pratique qui consiste à revendre plus cher des articles achetés sur des plateformes chinoises.
Par exemple, les pantoufles mouton de cette vidéo sont vendues 24,9 euros sur le site fermecocoon.com. Une recherche d'image inversée sur les produits permet de retrouver ces mêmes chaussons à seulement 3 euros. Le site Refugedestincanin.com propose de son côté des sacs à 25 euros. Là encore, l'article est vendu à moins d'un euro sur Aliexpress.
Sous les vidéos catastrophes, les vidéastes préfèrent partager des cagnottes pour venir en aide à des personnes prétendument vulnérables et, in fine, soutirer de l'argent aux internautes. Ces liens douteux redirigent vers des publicités pour différentes escroqueries. Certaines des réclames cachent des pièges pour récupérer les données personnelles. De leur côté, les créateurs de vidéos IA sexistes font souvent la promotion d'une application de messagerie pour adultes permettant de "se faire de nouvelles amies".
"Tout le monde peut se faire avoir"
Mais les plateformes peinent à détecter ces contenus. "Avec le nombre de vidéos publiées par jour, les algorithmes ne peuvent pas tout détecter", souligne Ayoub Faouzi. "Les plateformes n'ont pas toujours intérêt à trier ces contenus générés par IA", complète Victor Baissait. "Ce sont des contenus très engageants qui retiennent les utilisateurs."
Pourtant, le risque est grand. En dehors du préjudice financier, Stéphanie Laporte pointe le phénomène de perte de confiance collective. "Avec l'automatisation. La production de vidéos 'déchets' sur les réseaux devient massive. Il est de plus en plus difficile de distinguer le vrai du faux."
D'autant que "tout le monde peut se faire avoir", assure Victor Baissait. "Ces vidéos de plus en plus sophistiquées sont regardées en tout petit sur l'écran des smartphones. Elles sont souvent floues alors même les plus avisés peuvent ne pas faire attention aux nombres de doigts sur une image ou à une bouche étrange."
Les experts militent donc pour un meilleur encadrement de ces contenus générés par IA, qui devraient être systématiquement labellisés comme tels. En attendant, mieux vaut donc redoubler de vigilance.