"Une consommation d'eau supérieure à celle du Danemark": comment rendre les IA moins consommatrices

Comment réduire l’appétit insatiable de l’IA? Un rapport de l’Unesco, en partenariat avec l’University College London (UCL), énonce plusieurs recommandations pour réduire la demande en électricité des infrastructures qui font fonctionner des intelligences artificielles.
Les besoins computationnels des IA doublent tous les 100 jours, ce qui fait redouter l’impact environnemental de la technologie. Au total, les très grands modèles de langage (LLM) représentent actuellement 1,5% de la consommation électrique au niveau mondial.
Des besoins qui explosent
Avec 415 TWh d’électricité consommée en 2024, l’alimentation actuelle des data centers est presque équivalente à celle de la France (à 449,2 TWh en 2024 selon le RTE). Et ces infrastructures ne sont que plus énergivores avec le temps, on constate une augmentation de 12 % de la consommation chaque année depuis 2017 selon un rapport de l’International Energy Agency.
L’IA n’est pas seulement gourmande en électricité, mais également en eau. L’or bleu sert principalement à refroidir les composants électroniques, mais il sert aussi à la construction d’infrastructure.
Selon un rapport de l’ONU, il est anticipé que pour fonctionner, l’IA engloutira entre 4,2 et 6,6 milliards de mètres cubes d’eau par d’ici 2027. C’est supérieur à la consommation d’eau annuelle du Danemark.
Les recommandations de l'Unesco
Alors que beaucoup de ressources se font de plus en plus rares, il va être primordial pour les concepteurs d’intelligences artificielles de se pencher sur l’optimisation de leurs modèles. Pour pallier cette consommation croissante, une équipe de chercheurs de l’UCL a mené des tests sur des IA en open source. Ils en ont déduit 3 grands axes à explorer:
- L’utilisation de modèles de langage plus petits: les IA actuelles sont extrêmement polyvalentes, dotées d’une large palette de compétences. Mais la consommation augmente proportionnellement aux performances. Lorsqu’on lui demande de réaliser une tâche simple, celle-ci surconsomme par rapport à ce qui lui est demandé. Un peu comme si on prenait l’avion pour aller au bout de sa rue. L’UCL préconise d’utiliser plusieurs petits modèles, dédiés à une seule tâche, plutôt que de mobiliser un gros modèle en permanence. Cela pourrait entraîner une baisse de 90 % de la consommation.
- Des prompts et réponses plus courts: raccourcir la longueur des requêtes utilisateurs et des réponses formulées par l’IA pourrait réduire jusqu’à 50% la consommation de ces dernières.
- Compresser des modèles grâce à la quantification: il s’agit d’une technique qui permet d’augmenter l’efficacité d’une IA tout en réduisant la taille du modèle. Un processus sans perte de précision qui peut faire économiser jusqu’à 44 % d’énergie.
Si explorées, ces solutions pourraient partiellement répondre à une potentielle crise de l’eau et énergétique qui s’annonce. Plusieurs territoires, notamment aux États-Unis, souffrent de la demande croissante des datacenters en électricité.
Par exemple, en Arizona, les datacenters sont devenus prioritaires sur le réseau électrique. En conséquence, certaines habitations de natifs sont privées de courant et les centrales à gaz sont obligées de s’agrandir, exposant les citoyens à proximité à des particules nocives.