Les outils basés sur de l’intelligence artificielle (IA) telles que ChatGPT, le chatbot d’OpenAI, consomment beaucoup plus d’eau et d’énergie que de simples requêtes sur un navigateur Internet, selon une étude de l’Université de Riverside en Californie.
D’une part, les centres de données – lieux d’apprentissage de l’IA – consomment plus d’eau pour refroidir leurs serveurs lors d’une conversation avec une intelligence artificielle : un demi-litre d’eau utilisé pour une seule requête via ChatGPT. D’autre part, les datacenters représentent déjà près de 1% de la consommation mondiale d’énergie.
« Les kilomètres de racks de serveurs utilisés pour l’IA dans des centres de données de la taille d’un entrepôt consomment des quantités croissantes d’électricité produite par des centrales électriques qui émettent non seulement du carbone qui réchauffe la terre, mais aussi d’autres polluants atmosphériques, tels que les particules et les oxydes d’azote, qui réagissent avec d’autres polluants pour former de l’ozone qui irrite les poumons. Ces polluants atmosphériques ont été associés à des risques accrus de cancer, de maladies cardiaques, de réduction de la durée de vie et d’autres effets néfastes sur la santé », commente l’Université dans un communiqué à propos de l’étude.
L’Université de Riverside appelle à davantage de transparence quant aux modèles d’IA : faire savoir au public utilisateur là où ces modèles ont été formés et quel est le coût en carbone de leur usage. Selon les chercheurs, cela ferait réfléchir le grand public et inciterait les hyperscalers à mieux répartir les charges de calcul entre différents centres de données pour réduire l’empreinte carbone des requêtes basées sur l’IA.