Tech&Co Intelligence artificielle
Intelligence artificielle

Une bouteille par conversation: ChatGPT est un gouffre de consommation d'eau douce

placeholder video
Les IA génératives comme ChatGPT sont particulièrement gourmandes en eau, concluent des chercheurs américains, qui craignent les répercussions sur l’approvisionnement des populations.

Une simple conversation avec le chatbot ChatGPT revient à vider une bouteille d’eau, tandis qu'entraîner son prédécesseur GPT-3 aurait requis assez d’eau pour remplir une tour de refroidissement nucléaire. Ce sont les conclusions préliminaires d’une étude encore au stade de pré-publication, intitulée "Making AI Less 'Thirsty'" (littéralement "Rendre l'IA moins 'assoiffée'"), menée par les universités du Colorado Riverside et d’Arlington Texas, relayée par Gizmodo.

Un demi-litre pour 25 à 50 questions

OpenAI, qui a développé cette IA, n’a pas communiqué le temps exact qu’a nécessité l’entraînement de son modèle de langage. Mais Microsoft, qui a noué un partenariat de plusieurs milliards de dollars avec la startup américaine, a expliqué que son dernier superordinateur contient 10.000 cartes graphiques et plus de 285.000 cœurs de processeurs. Une telle débauche matérielle requiert d’énormes quantités d’eau afin de refroidir le centre de données de Microsoft, situé aux Etats-Unis - trois fois plus si l’entreprise a choisi son centre basé en Asie pour préparer le modèle, car celui-ci consomme davantage d’énergie.

Les chercheurs ont estimé que que l'entraînement de GPT-3 aurait consommé 700 mètres cubes d’eau, tandis que 25 à 50 questions échangées avec le chatbot ChatGPT nécessitent un demi-litre d’eau. Les modèles plus récents, comme GPT-4, seraient encore plus gourmands en eau.

Pour maintenir les centres de données à une température moyenne d’environ 10 à 26 degrés Celsius, des tours de refroidissement évaporent de l’eau froide. On parle bien ici d’eau "consommée", c’est-à-dire qu’on ne peut pas récupérer, et pas simplement d’eau "extraite" puis recyclée. Le type d’eau utilisé est aussi important: elle doit être issue de source d’eau douce. Les data centers consomment aussi un volume d’eau indirect: celui nécessaire au surplus de production d’électricité dont ils ont besoin.

L'énergie nécessaire pour entraîner GPT-3 a par ailleurs rejeté 502 tonnes d'émissions carbone, et aurait pu alimenter une habitation américaine moyenne pendant des centaines d'années, selon une étude de Stanford AI également citée par Gizmodo.

Tensions sur l’eau

OpenAI n’est pas la seule concernée, loin de là; les centres de données de Google, qui alimentent Google Search, mais aussi ses modèles de langage LaMDa et Bard, ont requis plus de 8,7 millions de mètres cubes d’eau en 2019 dans trois états américains seulement. LaMDa serait même plus dépensier en eau, car ce modèle est abrité dans des data centers situés dans des régions particulièrement chaudes, comme le Texas.

Les recherches pointent aussi les tensions autour de la consommation d’eau que peuvent susciter l’utilisation des IA génératives de ce type aux Etats-Unis, où 44 millions d’habitants disposent d’un accès "inadéquat" au réseau de distribution d’eau. L’université de Stanford estime que d’ici 2071, près de la moitié des bassins d’eau douce du pays seront incapables de répondre à la demande mensuelle. La montée des températures et l’accroissement de la population ont déjà résulté en une sécheresse historique dans l’Ouest, jamais vue en plus de 1000 ans.

Dans ces conditions, les chercheurs préconisent de mieux cibler les lieux d’établissement des data centers ou de les faire tourner aux heures les plus froides de la nuit. Les utilisateurs de chatbot pourraient aussi privilégier pour leurs conversations les heures où la consommation d’eau journalière est la plus faible… de la même façon que les autorités l’encouragent pour les lave-vaisselles et les lave-linges.

Lucie Lequier