Selon une étude de la MIT Tech Review menée en collaboration avec Hugging Face, la consommation mondiale d’énergie des centres de données devrait plus que doubler d’ici 2030. Les centres de données pourraient émettre 2,5 milliards de tonnes de gaz à effet de serre d’ici la fin de la décennie : trois fois plus que ce qu’ils auraient émis si l’IA générative n’était pas devenue la dernière tendance du marché.

Les entreprises comme OpenAI et Google ne communiquent pas sur la consommation énergétique de leurs modèles de langage (LLM). L’étude a donc tablé ses estimations sur l’IA open source Llama.

L’énergie utilisée pour une requête auprès de Llama 3.1 8B utilise environ 57 joules d’énergie. 8B signifie que le moteur utilise 8 milliards de paramètres. Ce chiffre doit être doublé pour tenir compte du refroidissement nécessaire dans le datacenter, ce qui porte une seule requête sur ce modèle à environ 114 joules, l’équivalent du fonctionnement d’un four à micro-ondes pendant un dixième de seconde. Un modèle plus grand, comme le Llama 3.1 405B, a besoin d’environ 6.706 joules par réponse, soit huit secondes d’utilisation d’un micro-ondes.

Autrement dit, la taille du modèle joue un rôle important dans la quantité d’énergie qu’il consomme. Le modèle GPT-4 d’OpenAI comporterait plus de mille milliards de paramètres. Cela signifie que son empreinte énergétique par requête est bien plus élevée que celle des requêtes sur Llama.

L’étude révèle que les photos générées par IA consomment moins d’énergie que les réponses écrites du fait de la taille réduite du modèle. En revanche, la génération de vidéos par IA est un gouffre énergétique. Pour générer une vidéo de cinq secondes à 16 images par seconde, le modèle de génération de vidéos d’IA CogVideoX consomme 3,4 millions de joules, ce qui équivaut à faire fonctionner un micro-ondes pendant une heure selon l’équipe de recherche de Hugging Face. « Les générateurs de vidéos d’IA, qui créent des vidéos hyperréalistes d’une durée de 30 secondes utilisent beaucoup plus d’énergie », indique le rapport.

L’étude fait une estimation de la consommation quotidienne d’énergie d’une personne ayant l’habitude d’utiliser de l’IA. Quinze questions, dix tentatives de génération d’une image et trois tentatives de réalisation d’une vidéo de cinq secondes pour Instagram consommeraient 2,9 kWh d’électricité, soit trois heures et demie d’usage d’un four à micro-ondes. Or, OpenAI estime que des centaines de millions de personnes dans le monde utilisent déjà ChatGPT chaque semaine.

« La planification de l’impact futur de l’IA sur les réseaux d’énergie et les émissions est quasi impossible », conclut la MIT Tech Review, mais elle affirme : « Avec l’IA, les objectifs de réduction des émissions de gaz à effet de serre affichés par des géants de la technologie s’éloignent de plus en plus ».