ChatGPT-5, ce n’est pas pour tout de suite, explique le patron d’OpenAI

A peine arrivé, ChatGPT-4 pourrait-il déjà laisser place à GPT-5? Pour Sam Altman, le patron d’OpenAI, ce n’est pas dans les plans de l’entreprise, du moins à court terme. Invité à discuter avec des élèves du prestigieux Massachussetts Institute of Technology (MIT), Sam Altman a assuré se concentrer à 100% sur la dernière version de l’intelligence artificielle conversationnelle, sortie mi-mars.
"Une version de la lettre (rédigée par de nombreux experts de l'IA réclamant un moratoire sur le sujet, ndlr) indique qu’OpenAI serait en train d’entraîner GPT-5 en ce moment. Ce n’est pas le cas et ça ne le sera pas pour un moment", a affirmé Sam Altman.
Prendre le temps de sécuriser
La lettre évoquée dans ses propos est celle signée par plus de 1100 personnes qui réclament une pause immédiate des projets autour de l’intelligence artificielle. Un courrier dont Sam Altman approuve certains éléments, notamment sur le besoin de sécuriser le secteur.
"Il y a des parties de la lettre avec lesquelles je suis d’accord. Nous avons fait une pause de six mois entre la fin de l’entraînement de ChatGPT-4 et sa sortie par exemple. Il faut prendre le temps d’étudier les systèmes de sécurité", note le patron d’OpenAI.
Sam Altman reste toutefois dubitatif sur d'autres points de la lettre, toujours sur le sujet du moratoire. Il regrette notamment l’oubli de la majeure partie des nuances techniques qui indiquent à quel moment exact du processus une pause serait nécessaire.
Pour le moment, OpenAI reste donc focalisé sur GPT-4 et sur l'amélioration de cette version du chatbot. Bien que performant et jugé révolutionnaire par beaucoup, ChatGPT comporte encore un grand nombre de faiblesses, en particulier liées à la sécurité et à la protection des données.
Ces problèmes ont conduit à l’interdiction du chatbot en Italie ainsi qu’à l’ouverture de diverses enquêtes en France et dans d’autres pays. Pour essayer de réduire au plus vite ces dysfonctionnements, ChatGPT a mis en place un système de Bug Bounty, où des hackers spécialisés peuvent pointer du doigt à OpenAI les différents problèmes du logiciel, en échange d’argent.