"Les gens ne s'en doutent pas": ChatGPT est-il une bombe environnementale?

Tapez seulement quelques mots, et ChatGPT peut vous générer un roman entier ou un jeu vidéo en un clin d'œil. Mais derrière cet apparent tour de magie se cache une machinerie énorme et extrêmement gourmande en ressources. Énergie, eau, métaux: de leur conception à leur utilisation, chaque phase du cycle de vie de ces IA génératives en fait de potentiels gouffres d'énergie et de ressources naturelles.
"Les gens ne se doutent pas forcément que l'IA peut avoir un impact sur l'environnement", reconnaît auprès de Tech&Co Sasha Luccioni, chercheuse et responsable Climat chez Hugging Face, une plateforme centrale dans le développement actuel des IA. "On ne voit pas de machine physique, c'est dans le cloud… Mais il y a des conséquences."
Des émissions conséquentes
Le problème se pose dès la conception. Avant d'utiliser ces programmes, il faut les entraîner en leur faisant analyser plusieurs milliards d'exemples (textes, images…). Les plus gros modèles font fonctionner des milliers de cartes graphiques empilées dans des data centers pendant des millions d'heures.
Ce qui implique une consommation d'énergie considérable: l'entraînement de GPT-3 (le prédécesseur de ChatGPT) a consommé près de 1300 MWh, selon une estimation. Soit l'électricité consommée par près de 320 foyers français en une année, d'après les chiffres de la Commission de régulation de l'énergie.
Cette phase aurait donc provoqué l'émission de 550 tonnes d'équivalent CO2 dans l'atmosphère. C'est autant que les émissions annuelles d'environ 60 Français, selon les chiffres du ministère de la Transition écologique. Et OpenAI a depuis créé deux modèles encore plus complexes et massifs, ChatGPT et GPT-4, dont la fabrication a probablement demandé encore plus d'énergie.
Mais ce n'est pas le seul moment gourmand en énergie. "Comme une télé qu'on laisserait en veille, les data centers consomment de l'énergie même quand ils ne sont pas utilisés pour l'entraînement", résume pour Tech&Co Sasha Luccioni, qui a participé à estimer la consommation énergétique de Bloom, un autre modèle de langage.
L'entraînement de Bloom aurait ainsi consommé plus de 433 MWh d’électricité, mais il faut encore rajouter 256 MWh pour simplement maintenir ces composants en veille hors des phases d’entraînement. Et l'impact carbone d'une IA pourra être encore plus démesuré si l'électricité utilisée a été obtenue à partir de sources fossiles, comme le charbon ou le gaz, plutôt que par des sources renouvelables ou le nucléaire.
Des impacts encore très secrets
Les IA génératives ne sont pas seulement gourmandes en énergie: elles réclament aussi beaucoup d'eau et de métaux stratégiques. L'eau est indispensable au refroidissement des data centers utilisés pour l'entraînement et le fonctionnement du modèle, au point que l’entraînement de GPT-3 aurait consommé 700.000 litres d'eau, selon une estimation tierce.
Et pour fabriquer les milliers de cartes graphiques qui s'empilent dans ces mêmes data centers et qui calculent sans relâche, il faut utiliser une grande quantité de métaux extraits des sols – et là aussi, beaucoup d'eau et d'électricité.
Mais quelle quantité, précisément? "C'est extrêmement difficile à estimer", déplore Sasha Luccioni. D'abord parce que chaque IA générative est conçue différemment. Mais surtout parce que ces données sont entourées d'un épais voile de mystère.
"La plupart des entreprises qui créent ces modèles ne vont pas détailler quoi que ce soit", regrette la chercheuse.
OpenAI n'a par exemple publié aucune étude d'impact sur ses derniers modèles de langage, pourtant les plus utilisés au monde. Et ceux qui le font ne sont pas forcément comparables entre eux: certaines études d'impact se penchent uniquement sur la consommation d'électricité de la phase d’entraînement, quand d'autres essaient de prendre en compte l'ensemble des étapes, jusqu'à la conception des composants électroniques – mais là encore, l'impact de toutes ces pièces n'est pas forcément rendu public, ce qui force à faire des estimations complexes.
Une chose est sûre: depuis leur ouverture au grand public et l'explosion des utilisations, l'impact environnemental des IA génératives a explosé. "Vu l'envergure du déploiement de ChatGPT, la phase d'utilisation est clairement devenue la plus consommatrice", note Sasha Luccioni. "Il faut faire tourner plusieurs copies du modèle en parallèle pour répondre à la demande", ajoute-t-elle.
Et la tendance n'est pas rassurante. "On veut utiliser de l'IA générative partout, faire des modèles de plus en plus gros… Les entreprises s’en servent comme un argument de communication", évoque Sasha Luccioni. De quoi faire des IA génératives de véritables gouffres énergétiques.
"Pas besoin de parler à son frigo"
Est-il possible de réduire ces impacts? "Il y a beaucoup de moyens techniques: par exemple, améliorer l'efficacité des modèles pour obtenir les mêmes résultats avec moins de puissance de calcul", propose Sasha Luccioni. Optimiser la collecte ou le stockage des données, l'inférence, le refroidissement des data centers, les sources d'énergie utilisées… Les pistes sont nombreuses.
Une étude réalisée par une équipe de Google estime par exemple qu'en appliquant la plupart de ces mesures, l'impact carbone d'un modèle de langage pouvait être divisé par un facteur de 1000 (mais cette étude ne prend pas en compte l'impact de la fabrication des composants ou de la phase d'utilisation). Questionné sur le sujet, ChatGPT écrit qu'OpenAI s'est engagé à la neutralité carbone de sa consommation d'électricité en 2025.
Mais ces améliorations possibles suffiront-elles à contrebalancer l'explosion actuelle du nombre de modèles génératifs, de leur taille et de leur utilisation? Pour Sasha Luccioni, une des solutions les plus simples serait encore de s'interroger sur l'intérêt de ces technologies.
"Les entreprises veulent mettre de l'IA partout parce que c'est 'cool', mais on n'a pas besoin que tout soit 'smart' et 'connecté'", estime la chercheuse.
"Je préfèrerais une IA qui permettrait d'améliorer les diagnostics de cancer, plutôt qu'une IA générative qui me permette de parler à mon frigo ou mon moteur de recherche." Elle conclut en appelant à plus de transparence: "Dans n'importe quel autre secteur, quand on crée un produit qui va avoir des impacts, on doit donner des informations sur son taux d'efficacité, sa consommation énergétique... Quand on comprendra à quel point ces modèles sont énergivores, ça aidera à conscientiser les gens."