
« Quand je vois certains solliciter ChatGPT pour savoir quelle ligne de métro prendre, je mesure combien les gens sont inconscients de l’impact écologique d’une requête IA qui équivaut à dix recherches sur Google. » Directeur pédagogique de l’Institut supérieur pour l’environnement (ISE), Corentin de Montmarin pourrait passer ses journées à rappeler à l’ordre ses étudiants tant ils « utilisent constamment l’IA » pour tout et… parfois n’importe quoi.
Plutôt que de leur faire la morale, ce spécialiste de la transition écologique leur explique comment le recours à l’intelligence artificielle est devenu un gouffre en termes d’impact carbone. L’un des principaux moteurs de la pollution numérique de l’IA est la consommation énergétique massive des centres de données.
Ces fameux data center puisent à eux seuls 1 à 1,5 % de la consommation électrique mondiale ! À l’intérieur de ces bâtiments, remplis de serveurs connectés les uns aux autres, sont virtuellement stockées et traitées toutes nos données informatiques. C’est le fameux Cloud qui nous permet par exemple de conserver au chaud nos documents dématérialisés (pièces administratives, photos, dossier médical…). Mais c’est aussi via les data center que transitent toutes nos requêtes. Y compris les plus futiles comme ces questions loufoques posées à ChatGPT par des internautes.
La soif d’énergie des supercalculateurs
Est-il bien utile de savoir combien de temps il faut pour creuser un tunnel jusqu’au centre de la Terre avec une cuillère à café ? Ou si les extraterrestres aiment le fromage ? Quand vous posez ces questions à une IA, dites-vous que vous participez à augmenter votre empreinte carbone car chaque interaction avec des algorithmes d’IA, même un simple traitement de données, génère des émissions de gaz à effet de serre.
Pour répondre à cette soif de sollicitations numériques, les data center poussent désormais comme des champignons sur la planète. Ils ne cessent par exemple de grignoter du terrain en Île-de-France ou quatre à cinq nouvelles demandes d’implantations sont déposées chaque mois.
L’explosion de ces « hôtels à processeurs » inquiète l’Institut Paris région qui pointe « un impact considérable sur la consommation électrique et sur la robustesse du réseau électrique dans un contexte d’augmentation des besoins ». D’ici à 2040, ces usines numériques pourraient représenter un quart de la consommation électrique en région parisienne. Dans la région de Washington (États-Unis), qui concentre déjà 200 centres de données et en a 117 autres dans les cartons, l’électricité est désormais rationnée pour étancher la soif d’énergie des supercalculateurs.
Une seule requête consomme environ 5 cl d’eau
Dans d’autres états, certains habitants n’ont même plus assez de pression au robinet tant les Data centers puisent dans les ressources aquifères. C’est que l’ogre numérique a aussi une soif d’eau inextinguible.
« Il en faut des quantités astronomiques pour refroidir les machines et éviter la surchauffe, explique Thomas Brilland, ingénieur en charge de la sobriété énergétique à l’Ademe. Nous avons calculé qu’une requête d’une seule page sur IA consomme environ 5 cl d’eau. Or, il y a environ 2,6 milliards de requêtes par jour sur ChatGPT… »
L’institut supérieur pour l’environnement s’est intéressé aux seuls data centers de Google. « Ils auraient consommé environ 16 milliards de litres d’eau en 2021 soit l’eau nécessaire pour irriguer et entretenir vingt-neuf terrains de golf dans le sud-ouest des États-Unis chaque année. »
Professeur de génie électrique et informatique à l’université de Californie, Shaolei Ren a de son côté calculé que si 10 % des travailleurs américains l’utilisaient une fois par semaine pendant un an pour rédiger un courriel, cela entraînerait une consommation de 435 millions de litres d’eau.
« La demande mondiale pour l’IA pourrait entraîner un prélèvement de 4,2 à 6,6 milliards de mètres cubes d’eau d’ici à 2027, estime l’ISE. Soit l’équivalent de la consommation annuelle de 4 à 6 fois celle du Danemark ou de la moitié du Royaume-Uni. »
Pour ne pas épuiser les nappes phréatiques, des solutions émergent. À l’image du « cloud provider français » Qarnot qui propose à ses clients des « chaudières numériques » en distribuant ses serveurs sur les sites où la chaleur qu’ils dégagent « peut être valorisée dans des piscines, des sites industriels ou des réseaux de chaleur ».
Des « monstres numériques »
Pour permettre à leur data center de garder la tête froide, d’autres ont imaginé les plonger… en mer. À 70 kilomètres au large de l’île de Hainan, au sud de la Chine, un centre de données haut comme un immeuble de cinq étages a été installé à 30 m de fond. Plus besoin de climatiseur. C’est l’océan qui refroidit les machines.
Une hérésie pour Corentin de Montmarin : « juste pour refroidir des centres de données, on va réchauffer l’océan qui subit déjà les effets du réchauffement climatique en y installant des infrastructures qui font énormément de bruit et vont déranger les espèces marines ».
« La trajectoire globale de développement des data centers dans le monde est difficilement compatible avec nos objectifs climatiques », euphémise Thomas Brilland. Alors que la France en compte aujourd’hui environ 300 dans l’hexagone, le directeur pédagogique de l’ISE pointe l’impact de ces buildings bardés d’électronique « sur l’artificialisation des sols ».
À l’image du collectif MNLE 93 qui s’oppose à la construction d’un mega data center au Bourget (Seine-Saint-Denis) et dénonce « les nuisances sur la qualité de vie et la santé des riverains », de plus en plus d’habitants et d’ONG écologistes dénoncent le bétonnage des terres lié à ces « monstres numériques ».
« Cet outil surpuissant, en devenant accessible au grand public, nous coûte extrêmement cher en termes écologique au point que la question se pose aujourd’hui d’en limiter certains usages, estime Corentin de Montmarin qui appelle les géants de l’IA à plus de transparence sur l’impact écologique de leur business model. D’un côté ils affichent l’ambition d’être neutres en carbone, de l’autre, leur consommation ne cesse d’exploser. »