Tech&Co
Tech

Le chef de l'intelligence artificielle de Facebook estime que ChatGPT "n'a rien de révolutionnaire"

placeholder video
Yann LeCun, scientifique en chef pour l'intelligence artificielle chez Facebook, estime que le grand public se méprend totalement sur le caractère disruptif et innovant de ChatGPT.

Voilà plusieurs semaines déjà que ChatGPT est sur toutes les lèvres. Entre ses partisans et ses détracteurs, le chatbot développé par OpenAI n'en finit pas de déchaîner les passions. Si le grand public le considère comme un outil révolutionnaire, en raison de ses capacités à comprendre le langage humain, produire des textes ou encore simuler des conversations de manière naturelle, ce n'est absolument pas le cas de Yann LeCun.

Ce Français, lauréat du prix Turing, pionnier dans le domaine de l'intelligence artificielle et actuellement scientifique en chef du département IA chez Facebook, ne partage guère l'enthousiasme suscité par ChatGPT et ne s'est pas privé pour le faire savoir. "En terme de techniques sous-jacentes, ChatGPT n'est pas particulièrement innovant", a-t-il ainsi déclaré lors d'une séance de questions-réponses sur Zoom, rapporte, ZDnet.

ChatGPT "n'a rien de révolutionnaire bien que ce soit de cette manière que le public le perçoit car, vous savez, c'est bien conçu", a-t-il ajouté en arguant que des systèmes d'intelligence artificielle qui, comme ChatGPT, s'appuient sur le deep learning pour fonctionner existent depuis longtemps.

OpenAI n'est pas pionnier dans ce domaine

Par ailleurs, l'idée générale selon laquelle OpenAI est l'unique entreprise au monde à produire ce genre d'outil est inexacte a-t-il également souligné.

"En dehors de Google et Meta, une demi-douzaine de startups utilisent une technologie fondamentalement très similaire à celle-ci", a précisé Yann LeCun.

Pour étayer son propos, le scientifique a fait remarquer que GPT-3, le programme sur lequel repose ChatGPT, est composé de multiples éléments technologiques développés ces dernières années par différents acteurs. Notamment le concept de "Transformeurs", une technique de deep learning présenté par des chercheurs de Google dès 2017.

"ChatGPT et d’autres grands modèles de langage ne sont pas sortis de nulle part, ils sont le résultat de décennies de contributions de différentes personnes", a résumé Yann LeCun sur Twitter.

ChatGPT s'appuie sur plusieurs années de recherches

Yann LeCun a poursuivi sa démonstation en expliquant également que les travaux sur de tels programmes de langage remontent en réalité à plusieurs décennies. "Les grands modèles de langage, comme le premier modèle de langage à réseau neuronal, a été conçu par Yoshua Bengio il y a environ 20 ans", a affirmé Yann LeCun, en faisant référence au chef de l'Institut québécois d'intelligence artificielle (Mila).

Les travaux de Yoshua Bengio relatifs au concept d'attention ont ensuite été repris par Google pour le "Transformer" et sont devenus un élément essentiel de tous les modèles de langage.

Le programme d'OpenAI fait également usage d'une technique appelée "apprentissage par renforcement grâce à la rétroaction humaine". Ce procédé fait appel à des agents humains pour aider à classer les résultats de la machine afin de les améliorer. Cette approche a été mise au point non pas par OpenAI, mais par l'unité DeepMind de Google.

Faire évoluer la perception du public sur ChatGPT

Après sa démonstration, Yann LeCun a précisé, le lendemain, dans un tweet, que son intervention ne visaient pas à dévaloriser le travail d'OpenAI mais plutôt à ouvrir les yeux du public "qui perçoit ChatGPT comme une avancée technologique unique et innovante, en avance sur tout le monde, ce qui n'est tout simplement pas le cas.


Enfin, selon Yann LeCun, "si Google et Meta n'ont pas présenté d'outils qui ressemblent à ChatGPT, ce n'est pas parce qu'ils ne le peuvent pas. C'est parce qu'ils ne le souhaitent pas."

Louis Mbembe