En Chine, une youtubeuse ukrainienne transformée en influenceuse russe malgré elle

Youtubeuse depuis peu, Olga Loeik a rapidement eu une mauvaise surprise sur Internet. Etudiante à l’université de Pennsylvanie, cette Ukrainienne de 21 ans a lancé sa chaîne Youtube en novembre dernier. Quelque temps après, elle a remarqué que son image avait été utilisée pour créer des répliques à l'aide de l’intelligence artificielle (IA), rapporte Reuters.
Ces sosies numériques, dont l’une est baptisée "Natasha", se font passer pour des femmes russes sur les réseaux sociaux chinois. Parlant couramment le chinois, elles remercient la Chine pour son soutien apporté à l’Ukraine et cherchent à gagner de l’argent en vendant des produits russes.
"C'est littéralement mon visage qui parle mandarin (...) et je dis à quel point la Russie et la Chine sont formidables", a déclaré Olga Loeik, ajoutant que "c’était vraiment effrayant, parce que ce sont des choses que je ne dirais jamais dans la vie".
Une technologie courante en Chine
Ces faux comptes sont suivis par des centaines de milliers de personnes et ont vendu des dizaines de milliers de dollars de produits, notamment des bonbons russes. Si les utilisateurs peuvent penser que ces femmes sont réelles, certaines des publications indiquent qu'elles peuvent avoir été créées à l’aide de l’IA.
Olga Loeik n’est pas la première femme dont les images ont été détournées, souvent à leur insu, pour promouvoir la Russie et la Chine. D’après des experts interrogés par Reuters, ces femmes créées à l’aide de l’IA sont utilisées pour vendre des produits aux hommes célibataires chinois.
La technologie permettant de créer de telles images est "très courante, car de nombreuses personnes l’utilisent en Chine", a expliqué Jim Chai, directeur général de XMOV, une société développant des technologies d’IA, qui n’ont pas été utilisées pour créer les sosies de l’étudiante.
Selon lui, une personne pourrait créer une réplique d’elle-même seulement en tournant une vidéo de 30 minutes d’elle, puis en retravaillant la vidéo. "Cela semble très réel et (...) si vous changez de langue, la seule chose que vous devez ajuster est la synchronisation labiale", a-t-il indiqué.
A l’heure où les outils d’IA, comme ChatGPT, sont de plus en plus populaires, ces utilisations malveillantes rappellent à quel point ils peuvent être dangereux, en diffusant de fausses informations.