Tech&Co
Tech

Des escrocs arnaquent des personnes en copiant numériquement la voix de leurs proches

placeholder video
Des escrocs utilisent des logiciels permettant de reproduire une voix grâce à une intelligence artificielle, afin d'arnaquer des personnes en se faisant passer au téléphone pour un de leurs proches.

Des escrocs utilisent l'intelligence artificielle pour arnaquer des personnes en répliquant la voix d'un de leurs proches au téléphone. Selon un article du Washington Post ce dimanche, un couple de septuagénaires au Canada a ainsi reçu un appel d'un homme dont la voix ressemblait à celle de leur petit-fils, les informant qu'il était en prison et qu'il avait besoin d'argent pour la caution.

Ni une ni deux, les grands-parents ont retiré 3000 dollars canadiens dans une première banque, puis se sont dirigés vers une deuxième établissement pour retirer davantage. C'est alors que le directeur de la banque les a informés qu'un autre client avait déjà reçu un appel similaire, et qu'il s'est avéré que la voix au bout du fil avait été truquée. Le couple a alors compris qu'il était sur le point de se faire arnaquer.

Argent évaporé

Un autre couple a eu moins de chance. Deux parents ont reçu un appel d'un avocat leur annonçant que leur fils avait tué un diplomate américain dans un accident de voituire, qu'il se trouvait en prison et avait besoin d'argent pour les frais juridiques. L'avocat leur a ensuite passé leur fils au téléphone pour dire qu'il avait besoin de 21.000 dollars canadiens.

Bien que l'appel était inhabituel, les parents, convaincus d'avoir échangé avec leur fils, se sont exécutés et ont retiré l'argent dans plusieurs banques. Ils l'ont transmis à l'avocat via un terminal bitcoin. Mais le couple s'est ensuite trouvé confus lorsqu'il a reçu un véritable appel de leur fils, leur disant que tout allait bien. Malgré avoir alerté la police, les parents ne sont pas parvenus à remettre la main sur leur argent.

Un échantillon de 30 secondes suffit

Selon le Washington Post, l'intelligence artificielle permet aux escrocs de reproduire très facilement la voix d'une personne à partir d'un échantillon audio de quelques phrases. Un extrait de 30 secondes suffit pour cloner une voix. Les escrocs peuvent ensuite lui faire dire tout ce qu'ils tapent au clavier. Ils s'en servent le plus souvent pour faire croire à des personnes que leurs proches sont en détresse.

La justice et les forces de l'ordre sont encore démunies face à ce type d'arnaques. La majorité des victimes ont peu de pistes pour identifier l'auteur et il est difficile pour la police de retracer les appels. Quant aux tribunaux, il existe trop peu de précédents juridiques pour faire tenir pour responsables de leur utilisation les entreprises qui développent ces outils, explique le journal américain.

Parmi ces entreprises, ElevenLabs, une start-up de synthèse vocale fondée en 2022, a notamment été utilisée pour faire dire n'importe quoi à des célébrités, comme à Emma Watson récitant des passages de "Mein Kampf" d'Adolf Hitler. Fin janvier, l'entreprise a annoncé renforcer les garanties contre les abus, en lançant notamment un outil permettant de détecter une voix généré par l'IA.

Marius Bocquet