Tech&Co
Tech

"Nous nous sommes trompés": le cofondateur d'OpenAI regrette l'approche open source de ses débuts

OpenAI, qui à ses débuts disait vouloir "collaborer librement" avec d'autres, n'a dévoilé quasiment aucune information sur les données utilisées pour former GPT-4, la nouvelle version de ChatGPT.

Alors que la startup OpenAI a annoncé l'officialisation GPT-4 ce mardi, beaucoup de chercheurs et experts regrettent que la nouvelle version de ChatGPT ne soit pas un modèle d'intelligence artificielle open source. OpenAI n'a offert pratiquement aucune information sur les données utilisées pour former le système, ses coûts énergétiques, le matériel ou les méthodes spécifiques utilisés pour le créer, selon The Verge.

"Compte tenu à la fois du paysage concurrentiel et des implications en matière de sécurité des modèles à grande échelle tels que GPT-4, ce rapport ne contient aucun autre détail sur l'architecture (y compris la taille du modèle), le matériel, le calcul d'entraînement, la construction d'ensembles de données, la méthode d'entraînement ou similaire", indique une section du rapport technique de GPT-4.

Le co-fondateur d'OpenAI, Ilya Sutskever, a expliqué à The Verge que GPT-4 n'était "pas facile à développer". "Il a fallu qu'à peu près tout OpenAI travaille ensemble pendant très longtemps pour produire cette chose. Et il y a beaucoup d'entreprises qui veulent faire la même chose, donc d'un point de vue concurrentiel, vous pouvez voir cela comme une maturation du domaine", a-t-il développé.

S'agissant de l'aspect sécurité, "ces modèles sont très puissants et deviennent de plus en plus puissants", affirmé Ilya Sutskever. "À un moment donné, il sera assez facile, si l'on veut, de causer beaucoup de tort avec ces modèles. Et à mesure que les capacités augmentent, il est logique que vous ne souhaitiez pas les divulguer", a justifié le co-fondateur d'OpenAI.

Changement d'approche

Cette approche marque un changement pour OpenAI. À ses débuts en 2015, la société de recherche en IA disait vouloir "créer de la valeur pour tous plutôt que pour les actionnaires" et "collaborer librement avec d'autres" pour "rechercher et déployer de nouvelles technologies". Fondée en tant qu'association à but non lucratif, OpenAI est ensuite devenue un "bénéfice plafonné" afin d'obtenir des milliards d'investissements.

Interrogé sur ce changement d'approche, Ilya Sutskever reconnaît avoir eu tort aux débuts d'OpenAI. "Nous nous sommes trompés. Si vous pensez, comme nous, qu'à un moment donné, l'IA va être extrêmement, incroyablement puissante, alors cela n'a tout simplement pas de sens d'ouvrir le code source. C'est une mauvaise idée...", a affirmé le co-fondateur de OpenAI auprès de The Verge.

"Je m'attends à ce que dans quelques années, il devienne complètement évident pour tout le monde que l'IA open source n'est tout simplement pas judicieuse", a-t-il conclu.

Une autre raison avancée par certains pour expliquer ce changement de pied est la responsabilité légale, alors que les modèles de langage d'IA sont en partie formés à partir d'informations sur le web, dont certaines sont protégées par les droits d'auteurs. Interrogé sur le fait que les données de formation de GPT-4 puissent inclure ou non des contenus piratés, Ilya Sutskever n'a pas répondu.

Marius Bocquet avec AFP