Tech&Co Intelligence artificielle
Intelligence artificielle

De l'IA générale à la superintelligence: la bataille pour la prochaine révolution technologique

placeholder video
Plusieurs entreprises du secteur cherchent à développer cette forme d'intelligence artificielle plus intelligente que les humains.

OpenAI, Deepseek, Google... Derrière la course à l'intelligence artificielle, à laquelle ces entreprises participent, figure un objectif bien défini: parvenir à l'intelligence artificielle générale (IAG). Pour ses admirateurs, elle est considérée comme la prochaine révolution après le feu, l'électricité et internet. Et, les sociétés du secteur ne cachent pas leur envie d'arriver à concevoir une telle IA.

Sur X, Deepseek indique d'ailleurs clairement vouloir "percer le mystère de l'IAG". mais c'est surtout OpenAI qui en parle beaucoup.

"Si l'IAG est créée avec succès, cette technologie pourrait nous aider à élever l'humanité en augmentant l'abondance, en donnant un coup de fouet à l'économie mondiale et en contribuant à la découverte de nouvelles connaissances scientifiques qui repoussent les limites du possible", indique le créateur de ChatGPT dans un article de blog publié en février 2023.

Mais qu'est-ce qu'une intelligence artificielle générale?

Une IA aussi intelligente que l'humain

Par ce terme, les entreprises entendent une IA dotée de capacités cognitives humaines. Sur son blog, le PDG d'OpenAI, Sam Altman, définit l'IAG comme "un système capable de résoudre des problèmes de plus en plus complexes, au niveau humain, dans de nombreux domaines". Autrement dit, ce serait une IA aussi intelligente qu'un humain.

Après ChatGPT, l'entreprise continue de se rapprocher de son objectif, ayant commencé à déployer des agents IA, soit des systèmes capables de réaliser des actions au nom des utilisateurs. Son patron estime d'ailleurs que l'IAG pourrait être lancée dans les prochaines années.

"L'IAG sera probablement développée au cours du mandat" du président Donald Trump a déclaré Sam Altman auprès de Bloomberg début janvier.

Si cette forme d'IA peut être bénéfique à l'humanité, OpenAI reconnait qu'elle peut aussi lui nuire. "L'IAG a le potentiel de donner à chacun d'incroyables nouvelles capacités; nous pouvons imaginer un monde où chacun d'entre nous aurait accès à de l'aide pour presque toutes les tâches cognitives (....) D'un autre côté, l'IAG s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociales", a admis le créateur de ChatGPT.

De l'IAG à la superintelligence

Malgré ces dangers, OpenAI estime qu'il ne faut pas arrêter de développer l'IAG, mais plutôt s'assurer de "bien faire les choses". La société prévoit même d'aller plus loin en parvenant à la "superintelligence". Un terme popularisé par le philosophe Nick Bostrom, avec le livre Superintelligence: chemins, dangers, stratégies publié en 2014. Il la définit comme "un système qui surpasse largement tous les individus hummains dans tous les domaines cognitifs". Une telle IA serait ainsi plus intelligente que les humains.

Selon Sam Altman, "les outils superintelligents pourraient accélérer massivement la découverte scientifique et l'innovation bien au-delà de ce que nous sommes capables de faire par nous-mêmes, ce qui augmenterait l'abondance et la prospérité".

Cette superintelligence pourrait arriver "dans quelques milliers de jours", avait-il en outre assuré en septembre 2024.

Yann Le Cun, directeur scientifique pour l'IA chez Meta et un des pères de l'IA, estime aussi que ce n'est pas de sitôt. Si pour lui, "ça ne fait aucun doute que ça arrivera à un moment ou à un autre, "les gens qui disent qu'on va avoir des systèmes aussi intelligents qu'un doctorant d'ici l'année prochaine se font des illusions", a-t-il déclaré auprès de l'AFP. Probablement une référence à Elon Musk, qui a affirmé en mars dernier que l'IA sera plus intelligente que l'humain dès 2025.

Alors que l'IAG et la superintelligence relèvent plus de la science-fiction que de la réalité pour le moment et que plusieurs patrons du secteur travaillent sur ces concepts, d''autres estiment que cela est "absurde". "'Cette superintelligence qui peut répondre à toutes les questions, qui sait tout' et à laquelle on pourra demander 'comment résoudre le problème du changement climatique' est un objectif 'absurde'", a récemment déclaré Michael Jordan, professeur à l'université de Californie à Berkeley et spécialiste de l'apprentissage automatique, dans un amphithéâtre de l'école d'ingénieurs Polytechnique.

D'autres craignent même que des IA aussi intelligentes représentent une menace pour l'humanité. C'est notamment le cas de Yoshua Bengio, professeur en informatique et autre père de l'IA.

"De façon presque inévitable, nous nous dirigeons vers des systèmes d'IA qui seront au moins aussi intelligents que nous, humains. Et il est certain que ces systèmes seront utilisés pour de bonnes comme de mauvaises choses. Par ailleurs, si l'IA devient plus intelligente que nous, il y a le risque d'en perdre le contrôle", a-t-il souligné auprès de L'Express en mai dernier.

Aux côtés d'Elon Musk, il faisait partie des signataires d'une lettre ouverte publiée en mars 2023 et appelant à faire une pause de six mois dans le développement de l'IA. "Devons-nous développer des esprits non-humains qui pourraient un jour être plus nombreux, plus intelligents que nous, nous rendre obsolètes et nous remplacer", écrivaient-ils.

Nombre de personnes craignent en effet que des IA aussi intelligentes soient capables de briser leurs chaînes, comme le montrent de célèbres films de science-fiction comme Terminator ou I, Robot. Pour Yann Le Cun, ce risque de "perte de contrôle" sur des IA animées de "leur propre volonté de vivre" menant à l'extinction de l'extinction" relève de la "science-fiction".

"Les intelligences de niveau humain ou supérieur (...) n'auront aucune volonté de faire autre chose que de remplir les tâches qu'on leur donne et qui seront sous notre contrôle", a-t-il assuré.

Si les experts restent divisés sur ce sujet, l'IAG et la superintelligence sont encore loin de voir le jour. Ce n'est pas en 2025 que des systèmes aussi intelligents seront déployés.

Kesso Diallo