Tech&Co Intelligence artificielle
Intelligence artificielle

ChatGPT est aussi utilisé pour tenter d'influencer les élections

placeholder video
Depuis le début de l’année, les modèles d’IA d’OpenAI sont utilisés par des cybercriminels, notamment pour générer de faux contenus afin d’influencer les élections.

En 2024, OpenAI a neutralisé plus de 20 tentatives d’utilisation frauduleuse de ses outils d’intelligence artificielle. C’est ce que révèle la startup dans un rapport publié mercredi 9 octobre. Elle y explique que les outils d’IA, dont ChatGPT, sont de plus en plus utilisés par les cybercriminels pour les aider dans leurs activités malveillantes.

Parmi elles figurent la création de logiciels malveillants, mais surtout la génération de faux contenus pour les sites web et les réseaux sociaux dans le but d’influencer les élections. Pour rappel, 2024 est une année historique en termes d’élections, avec la moitié de la population mondiale appelée aux urnes.

Des opérations infructueuses

Dans son rapport, OpenAI affirme avoir entravé les activités malveillantes de quatre réseaux cherchant à influencer les élections. La startup rappelle qu’elle a identifié et supprimé des comptes iraniens ayant généré de faux contenus à l’aide de ChatGPT pour manipuler l’opinion publique en vue de l’élection présidentielle américaine. Outre la campagne présidentielle américaine, ces comptes avaient aussi produit des contenus sur le conflit à Gaza et la présence d’Israël aux Jeux olympiques.

Sur les quatre réseaux, un seul, basé au Rwanda, s’est exclusivement concentré sur les élections. Début juillet, OpenAI a interdit plusieurs comptes de ce réseau qui ont généré des commentaires sur l’élection présidentielle dans le pays et qui ont été publiés sur X (ex-Twitter).

La startup précise qu’aucune des opérations d’influence qu’elle est parvenue à neutraliser n’a suscité d’engagement viral, avec peu ou pas de likes, de partages ou de commentaires.

Kesso Diallo