Le patron de l'entreprise à l'origine de ChatGPT a "un peu peur" de ChatGPT
Elles peuvent déjà générer des textes ou des images plus vraies que nature, et continuent de s'améliorer à une vitesse phénoménale. Faut-il s'inquiéter des progrès spectaculaires de l'intelligence artificielle? Oui, selon... le patron d'OpenAI, la structure pourtant à l'origine de ChatGPT, GPT-4 et d'autres modèles d'IA parmi les plus puissants et populaires aujourd'hui.
"Nous en avons un peu peur", a déclaré Sam Altman dans une interview à la chaîne américaine ABC News, ajoutant malgré tout: "Je pense que les gens devraient s'en réjouir."
Le créateur de ChatGPT présente l'intelligence artificielle comme "la meilleure technologie que l'humanité ait jamais conçu". Mais si les IA finiront d'après lui par montrer "la puissance collective et la créativité" de l'humanité, elles peuvent aussi servir à des usages beaucoup moins nobles.
Explosion de la désinformation
"Je suis particulièrement inquiet que ces modèles puissent être utilisés pour de la désinformation à grande échelle", a notamment souligné Sam Altman auprès du média américain. Les IA comme ChatGPT peuvent par exemple être utilisées pour générer de faux articles très crédibles.
Des dangers qu'OpenAI avait déjà soulevés dans un rapport en janvier, qui estimait que "les modèles de langage seront utiles aux propagandistes et vont probablement transformer les opérations d'influence en ligne."
“Maintenant [que les IA] deviennent meilleures pour écrire du code, [elles] pourraient être utilisées pour mener des cyberattaques”, a ajouté le dirigeant. Elles peuvent déjà rendre les SMS et les mails de hameçonnage plus crédibles et sophistiqués.
"La société a un temps limité pour réagir"
Sam Altman rappelle que les outils d'OpenAI sont modérés pour limiter la création de contenus illégaux, dangereux ou malveillants. OpenAI a par exemple mené des tests pour s'assurer que GPT-4 ne tenterait pas de prendre le contrôle du monde en échappant à ses créateurs. Mais des internautes trouvent régulièrement de nouveaux moyens de contourner ces mesures de sécurité.
"Une chose qui m'inquiète, c'est que nous ne serons pas les seuls créateurs de cette technologie, redoute Sam Altman. Il y en aura d'autres qui ne mettront pas les mêmes limites de sécurité que nous."
Sam Altman souligne notamment le risque que des gouvernements autoritaires développent leurs propres versions de ces modèles. Le géant chinois Baidu a par exemple dévoilé son modèle de langage inspiré de ChatGPT, et Vladimir Poutine aurait déclaré en 2017 que celui qui arriverait à dominer le secteur de l'IA "deviendrait le maître du monde", selon le média d'Etat russe RT.
"La société a un temps limité pour déterminer comment y réagir, comment les réguler", avertit Sam Altman concernant les acteurs de l'IA.
Dans ce cas, pourquoi mettre des systèmes aussi puissants que ChatGPT à disposition de n'importe qui? "Si on développait ça en secret dans notre labo et qu'on relâchait GPT-7 dans le monde d'un seul coup... Je crois que ça causerait beaucoup plus de problèmes", a expliqué Sam Altman, pour qui "les gens ont besoin de temps pour s'adapter, pour s'habituer à la technologie et comprendre quels sont les défauts et comment les limiter."