Tech&Co Intelligence artificielle
Intelligence artificielle

"Ne plus être capable de savoir ce qui est vrai": quand le Nobel de physique alertait sur les dangers de l’intelligence artificielle

placeholder video
Auréolé avec John J. Hopfield du prestigieux prix Nobel de physique 2024, Geoffrey Hinton racontait dès 2023 ses craintes sur les usages de l'IA.

En aidant à la création d'un réseau neuronal aujourd'hui utilisé par les grands modèles de langage, comme ChatGPT chez OpenAI, Geoffrey Hinton s'est attiré le respect de ses pairs, au point de recevoir, avec son confrère John J. Hopfield, le prix Nobel de physique 2024 ce 8 octobre.

Geoffrey Hinton est un ancien de Google et de sa division Deepmind, dédiée à l'IA, qu'il a quitté pour prendre une retraite bien méritée à l'âge de 75 ans. S'il a ainsi aidé à la création des IA génératives que l'on connaît aujourd'hui, le chercheur se veut toutefois très critique sur leurs évolutions: "Je me console avec l'excuse classique: si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait," expliquait-il dans une interview au New York Times en 2023.

Pour lui, les abus qui peuvent découler de l'utilisation de l'intelligence artificielle sont par ailleurs difficiles à contourner: "Il est difficile de voir comment on peut empêcher les mauvais acteurs de l'utiliser à des fins malveillantes."

Un chercheur très critique sur l'IA

Depuis plusieurs mois, l'IA générative est par exemple utilisée pour créer des images pornographiques ou tromper des électeurs lors de grands rendez-vous politiques.

En créant un réseau de neurones, Geoffrey Hinton s'attendait donc logiquement à ce que ses travaux soient contournés, notamment pour tenter d'aller toujours plus loin dans le secteur de l'intelligence artificielle. OpenAI l'a prouvé très récemment en dévoilant une nouvelle version de son assistant vocal ChatGPT qui apprend d'une conversation et peut interagir avec un utilisateur d'une manière plus humaine, notamment en ayant une "conscience" et des "sentiments".

Ce sont particulièrement ces points que Geoffrey Hinton a critiqués, s'inquiétant du fait qu'on pourrait "ne plus être capable de savoir ce qui est vrai."

Plus apocalyptique, le chercheur ajoutait que si l'IA pouvait permettre d'améliorer les conditions de vie et de travail, "elle pourrait bien nous enlever plus que ça."

Depuis plusieurs mois, les gouvernements et instances politiques internationales cherchent à forcer les géants de la tech à s'engager pour une IA plus sûre. Le 21 mai 2024, OpenAI, Google et Anthropic ont ainsi signé une charte pour responsabiliser le secteur.

Sylvain Trinel