Combien d’eau consomme une simple requête sur ChatGPT ? L’impact caché de l’IA sur nos ressources 💧

Lorsque nous interagissons avec ChatGPT, nous pensons immédiatement à l’électricité, aux data centers et aux émissions de carbone. Pourtant, un autre impact, moins visible mais tout aussi crucial, entre en jeu : la consommation d’eau. Derrière chaque requête tapée dans l’interface conviviale se cache une chaîne de processus énergivores qui nécessitent d’importants systèmes de refroidissement. Ces systèmes utilisent massivement de l’eau, souvent issue de ressources locales, pour éviter la surchauffe des serveurs. Dans cet article, nous allons quantifier et décortiquer l’empreinte hydrique d’une simple interaction avec l’intelligence artificielle, un angle essentiel pour une compréhension holistique de l’impact environnemental de l’IA.

L’eau, l’ingrédient invisible du cloud computing ☁️

Pour comprendre pourquoi une requête IA consomme de l’eau, il faut plonger dans le fonctionnement des data centers. Ces immenses fermes de serveurs, qui hébergent et font tourner des modèles comme GPT-4, génèrent une chaleur colossale. Pour maintenir une température optimale et assurer la stabilité des équipements, les centres de données utilisent principalement deux méthodes de refroidissement : par air et par eau. Les systèmes à refroidissement par eau (water-cooling), de plus en plus adoptés pour leur efficacité sur les infrastructures haute densité, sont directement responsables de la consommation d’eau.

Cette eau est principalement utilisée dans les tours de refroidissement (cooling towers), où elle s’évapore pour évacuer la chaleur. Une partie est également « consommée » (c’est-à-dire non restituée au milieu sous forme liquide) par cette évaporation et par les purges nécessaires pour éviter l’accumulation de minéraux. Ainsi, l’eau bleue (prélevée dans les nappes phréatiques ou les réseaux municipaux) et l’eau grise (utilisée pour le traitement) deviennent des ressources critiques pour l’industrie du numérique.

ChatGPT et la soif des data centers : les chiffres qui font réfléchir 🔢

Alors, combien de litres pour une simple question posée à ChatGPT ? La réponse n’est pas un chiffre unique, car elle dépend de nombreux facteurs : l’emplacement du data center, la saison, la technologie de refroidissement utilisée et la complexité de la requête. Cependant, des études académiques commencent à fournir des ordres de grandeur.

Selon les recherches de scientifiques comme le Professeur Shaolei Ren de l’Université de Californie à Riverside, pionnier dans l’étude de l’empreinte hydrique de l’IA, entraîner un grand modèle de langage comme GPT-3 pourrait consommer directement des centaines de milliers de litres d’eau. Pour l’utilisation (l’inférence), une estimation souvent citée suggère qu’une série de 20 à 50 requêtes avec ChatGPT pourrait nécessiter l’équivalent d’une bouteille d’eau d’un demi-litre (500ml). Une seule requête simple représenterait donc environ 10 à 25 millilitres. Cela peut sembler dérisoire, mais multiplié par les centaines de millions d’utilisateurs et les milliards de requêtes mensuelles, le volume total devient astronomique. À l’échelle d’une entreprise comme OpenAI ou Microsoft (son partenaire cloud Azure), cela se traduit par des millions de litres d’eau consommés chaque mois, avec un impact local significatif sur les ressources en eau.

Pourquoi cet impact est-il si variable ? Les facteurs d’influence 🌍

  1. La localisation géographique : Un data center situé dans une région aride comme l’Arizona utilisera plus d’eau par kWh consommé qu’un centre en Finlande, en raison des températures ambiantes plus élevées et de l’efficacité moindre du refroidissement.
  2. La saison et le climat : En été, les besoins en refroidissement explosent, faisant grimper la consommation d’eau parfois de plus de 50% par rapport à l’hiver.
  3. La source d’énergie : Si le data center est alimenté par une centrale thermique (charbon, gaz, nucléaire), l’empreinte hydrique inclut aussi l’eau utilisée pour la production d’électricité. C’est l’eau indirecte liée à l’énergie consommée.
  4. L’efficacité des infrastructures : Les centres plus récents, conçus avec des technologies de refroidissement par immersion liquide (où les serveurs baignent dans un liquide diélectrique) peuvent réduire drastiquement, voire éliminer, la consommation d’eau évaporative.

FAQ : Vos questions sur l’eau et l’IA 💬

  • Q : L’empreinte eau de ChatGPT est-elle plus grave que son empreinte carbone ?
    R : Il ne s’agit pas de hiérarchiser, mais de considérer les deux impacts. Le carbone affecte le climat global, tandis que la consommation d’eau a un impact localisé et immédiat sur les écosystèmes et les communautés, surtout en période de sécheresse. Les deux sont critiques.
  • Q : Que font les entreprises comme Microsoft et OpenAI pour réduire cet impact ?
    R : Elles investissent dans l’efficacité, le refroidissement par immersion, et s’engagent à être « water positive ». Microsoft, par exemple, vise à reconstituer plus d’eau qu’il n’en consomme d’ici 2030, en restaurant des bassins hydrologiques.
  • Q : En tant qu’utilisateur, puis-je réduire mon impact hydrique ?
    R : Oui, indirectement. En étant plus concis dans vos prompts, en évitant les requêtes inutiles et en privilégiant les interactions productives, vous réduisez le nombre de calculs serveur, et donc l’énergie consommée et l’eau associée.
  • Q : L’empreinte hydrique est-elle calculée de la même façon partout ?
    R : Non, c’est tout l’enjeu. Le Professeur Shaolei Ren plaide pour une standardisation et une transparence accrue des entreprises sur leurs mesures, afin de pouvoir comparer et améliorer les performances.

Vers une intelligence artificielle plus « sobre » en eau 🌱

L’explosion de l’intelligence artificielle générative nous oblige à regarder en face toutes les externalités de notre révolution numérique. Si l’empreinte carbone est désormais un sujet médiatisé, l’empreinte hydrique reste encore dans l’angle mort du grand public. Pourtant, chaque interaction avec ChatGPT, si infime soit-elle individuellement, s’inscrit dans une somme colossale qui pèse sur les ressources en eau de notre planète. La prise de conscience est le premier pas. Le deuxième repose sur l’industrie : les géants du cloud et de l’IA doivent impérativement innover vers des data centers plus efficaces, localisés stratégiquement, et transparents dans leur reporting environnemental. Enfin, en tant qu’utilisateurs et professionnels, nous avons un rôle à jouer par une utilisation plus raisonnée et moins frivole de ces technologies. L’objectif n’est pas de renoncer aux immenses progrès de l’IA, mais de les aligner avec les limites planétaires. 

« Pour une IA moins gourmande en bytes… et en gouttes ! » Le futur de l’intelligence doit être non seulement artificiel, mais aussi responsable et durable. La course à la puissance ne doit pas nous assécher.

Retour en haut