La Gen AI est-elle compatible avec nos trajectoires de décarbonation ?
2025-02-16
Lors de sa Keynote de décembre 2024, OVHcloud a présenté Omisimo, un routeur permettant de déterminer le meilleur modèle d’intelligence artificielle disponible pour répondre à un besoin précis : traduire un texte, générer une image, etc. Symbole de l’importance que prend cette question au sein des Cloud Providers, cette présentation a été immédiatement suivie d’une autre : celle de leur démarche Numérique Responsable, pour réduire l’impact environnemental de leurs activités.
Cette juxtaposition entre IA et questions de durabilité interroge forcément. Avons-nous affaire à une dissonance cognitive, en louant d’un côté les bénéfices d’une IA énergivore et gourmande en ressources naturelles, tout en prônant un engagement écologique qui incite à la frugalité ? Ou est-il réellement possible d’avoir de l’IA Générative tout en ayant un Cloud responsable sur le plan environnemental ?
Introduction à l’IA Générative
Avant d’entrer dans le détail de l’impact environnemental de l’IA, il est tout d’abord nécessaire de définir notre objet d’étude. L’IA Générative, ou Gen AI, est un type d’intelligence artificielle capable de générer du contenu (texte, audio, vidéo, image…) à partir d’une requête utilisateur, aussi appelée prompt. ChatGPT et Midjourney en sont des exemples connus.
Un même modèle d’IA Générative peut parfois gérer plusieurs types de contenus : interpréter du texte et des images, ou en générer. On parle alors d’IA “multimodale”, par opposition aux IA “unimodales”.
Ce type d'IA repose majoritairement sur des méthodes de Deep Learning nécessitant d’être entraînées sur de grandes quantités de données, comme les Generative Adversarial Networks (GAN) ou les Generative Pretrained Transformers (le GPT de “ChatGPT”).
Une fois entraînés, ces modèles très généralistes peuvent passer par une étape de fine-tuning, permettant de les spécialiser dans une tâche particulière : repérer un objet spécifique dans une image, utiliser un jargon particulier dans le texte généré, etc.
On distingue ainsi trois grandes phases dans la vie d’un tel modèle :
- sa phase d’entraînement, permettant de construire un modèle généraliste
- sa phase d’adaptation, permettant de le spécialiser dans une tâche particulière
- sa phase d’inférence, c’est-à-dire son utilisation pour générer du contenu à partir des requêtes qui lui sont fournies
Dans tous les cas, ces phases nécessitent l’utilisation de grandes quantités de ressources informatiques, localisées dans des centres de données. En particulier, elles nécessitent l’utilisation de puces informatiques spécifiques, les GPU, historiquement utilisées pour réaliser les calculs de rendu graphiques dans les jeux vidéo.
L’impact environnemental de l’IA
Pour saisir pleinement l’impact environnemental de l’IA, nous devons donc regarder les impacts liés :
- à l’entraînement, l’adaptation et l’utilisation des modèles d’IA
- au fonctionnement des centres de données lors de chacune de ces phases, pour faire tourner les serveurs, les refroidir, éclairer les salles, etc
- à la fabrication, la distribution et la fin de vie du matériel informatique utilisé, notamment les GPU.
Entraînement et adaptation
Sur les émissions liées à l’énergie dépensée pour l’entraînement des modèles, deux études ressortent :
- Patterson et al. (2021) estime que l’entraînement de GPT-3, a généré 552 tonnes de CO2eq, soit 312 aller-retours Paris / New York en avion ✈️
- Luccioni et al (2022) estime que l’entraînement de BLOOM, un modèle similaire en taille à GPT-3, a quant à lui généré 30 tonnes de CO2eq, soit 17 aller-retours Paris / New York en avion
L’écart entre les deux estimations, très important, s’explique de deux manières :
- L’efficience : BLOOM est un modèle dont l’architecture est plus optimisée que celle de GPT-3. Il a été entraîné sur du matériel différent, et sur un temps total plus court
- Le mix électrique : BLOOM a été entraîné en France, où l’électricité est peu carbonée (57 gCO2eq/kWh) alors que GPT-3 l’a été aux États-Unis, sur un mix électrique plus intensif en énergies fossiles (429 gCO2eq/kWh)
A ces émissions, doivent s’ajouter celles de la fabrication du matériel utilisé. Dans le cas du modèle BLOOM, l’étude estime que les émissions liées à la fabrication des serveurs et GPU sont d’environ 11,2 tonnes de CO2eq supplémentaires. A cela, l’étude propose d’ajouter également les émissions liées au fonctionnement même de l’infrastructure (routeurs, switchs, onduleurs, etc), faisant grimper l’impact global à 50,5 tonnes de CO2eq.
A partir de cette expérience, nous pouvons donc imaginer que l’impact réel de l’entraînement de ChatGPT-3 est bien supérieur aux (déjà importantes) 552 tonnes de CO2eq suggérées par l’étude initiale ; sachant en outre que ce modèle est ré-entraîné régulièrement pour être mis à jour…
Phase d’inférence et d’usage
Si la création d’un modèle de Gen AI est déjà responsable d’importantes émissions de gaz à effet de serre, qu’en est-il de l’usage ?
Pour reprendre l’exemple du modèle BLOOM, sa consommation électrique a été étudiée pendant une période de 18 jours. Sur ce laps de temps, il a nécessité 914 kWh d’électricité, pour répondre à 230 769 requêtes. On peut ainsi estimer qu’une seule requête API requiert 3,96 Wh d’électricité.
En extrapolant ces données d’usage, Data For Good estime que ChatGPT (GPT-3) pourrait avoir un impact carbone de 10 113 tCO2e par mois, soit près de 20 fois plus que pour son seul entraînement.
Bien que la marge d’incertitude soit grande pour de telles extrapolations, il apparaît tout de même que l’impact de l’inférence peut largement dépasser celui de l’entraînement des modèles.
Des impacts en croissance
Si cette analyse porte sur GPT-3, tout porte à croire que le bilan est encore moins favorable pour GPT-4.
Ce modèle est en effet “multimodal”, contrairement à son prédécesseur. Or, deux études viennent, coup sur coup, montrer que les impacts environnementaux des modèles d’IA Générative polyvalents, plus gros, ont des impacts bien supérieurs à ceux des modèles plus modestes.
Une première étude, de Luccioni et al (2023), analysant les modèles les plus populaires disponibles sur Hugging Face, démontre que les modèles généraux ont des impacts bien supérieurs aux modèles spécialisés, même à nombre de paramètres similaires. A titre d’exemple, un modèle de génération d’image comme “stable-diffusion-xl” génère 6 800 fois plus de CO2 qu’un modèle de génération de texte comme “distilbert-base-uncased”.
Une autre étude, de Varoquax et al (2024), montre que les modèles les plus gros ne sont pas plus efficients, et qu’ils ne permettent pas non plus de mieux résoudre les problèmes les plus complexes.
Cet impact se voit déjà aujourd’hui dans les bilans carbone des GAFAM. Les émissions de gaz à effet de serre de Microsoft ont ainsi bondi de 29,1% entre 2023 et 2021, en grande partie en raison des investissements dans les infrastructures nécessaires au développement de l’IA. Il en va de même pour Google, dont les émissions ont augmenté de 49% par rapport à 2019.
Ces augmentations sont d’autant plus préoccupantes que l’ADEME estime que les data centers comptent déjà pour 46% de l’impact carbone du numérique, qui compte lui-même pour 4,4% de l’empreinte carbone de la France et 11% de sa consommation électrique. Le développement sans limite de l’IA mettrait ainsi à mal à la fois nos ambitions climatiques, mais également notre système énergétique.
Ces tensions se font déjà ressentir aux Etats-Unis, où Microsoft investit pour relancer le réacteur de la centrale nucléaire de Three Mile Island et en utiliser l’électricité pour alimenter ses centres de données. L’annonce, par le président américain, d’un investissement de 500 milliards de dollars pendant 5 ans dans l’IA ne va pas dans une autre direction, puisqu’il vise à construire de nouveaux centres de données et à en sécuriser l’approvisionnement énergétique, quitte à passer par des “déclarations d’urgence sur l’énergie”. On estime ainsi que la consommation électrique de l’IA pourrait frôler 135 TWh d’ici 2027, soit l’équivalent de la production de 22 réacteurs nucléaires.
Enfin, nous avons beaucoup parlé de carbone ici, mais il en va de même pour l’eau, puisqu’il faudrait prélever l’équivalent de la consommation en eau du Danemark pour répondre aux besoins de l’IA d’ici 2027.
Gains d’efficience et effets rebonds
L’émergence de systèmes plus sobres et efficients sur la phase d’entraînement, comme Deepseek, risque de ne pas améliorer ce bilan, malgré l’enthousiasme soulevé initialement. Tout d’abord, les premières analyses portent à croire que le modèle est moins efficace sur la phase d’inférence que d’autres modèles, comme Llama 3.3. Or, comme on l’a vu, c’est bien la phase d’inférence qui semble regrouper la majorité des impacts environnementaux des modèles de Gen AI.
Par ailleurs, l’abaissement du coût d’entraînement peut générer un effet rebond : en permettant à plus d’acteurs d’entraîner et d’utiliser de tels modèles, il est possible que les gains d’efficience soient compensés par une plus grande adoption de ce type d’IA.
Il en va de même des discours pointant le fait que la génération d’un contenu par une IA émettrait moins de CO2 que sa création par un humain. Ces estimations se font à quantité égale, ignorent tout de la qualité du travail fourni, de sa pertinence, et donc sans prendre en compte l’effet rebond. Autrement dit, l’IA ne permettra pas de limiter les émissions de CO2 si elle est appliquée pour générer automatiquement de millions de comptes-rendus de réunions qui ne seront lus par personne.
Comment améliorer le bilan ?
Limiter le recours à l’IA Générative
Face à cette augmentation des impacts de l’IA, le premier réflexe doit être un réflexe de sobriété. Évitez les recours ludiques ou automatiques à l’IA générative, en particulier les modèles permettant de générer des images, qui ont des impacts bien supérieurs aux autres types de modèles. Privilégiez toujours le choix le plus sobre dans vos usages : préférez ainsi faire une requête sur un moteur de recherche ou un site spécialisé plutôt que de poser une question à ChatGPT.
Utilisez des modèles spécialisés, ou plus petits
Comme on l’a vu, les modèles généralistes ont des impacts supérieurs aux modèles spécialisés. Pour votre quotidien, demandez-vous donc quelle est l’IA la plus adaptée pour répondre à votre besoin, plutôt que de demander à une IA généraliste comme GPT-4.
Bien localiser son service géographiquement
L’exemple de BLOOM est assez frappant en ce qu’il montre la différence d’impact que peut avoir un simple changement de localisation de datacenter. De manière générale, utilisez (et créez) des services d’IA entraînés et déployés dans des pays où le mix électrique est décarboné, comme la France. Encore une fois, limitez le recours à des services comme ChatGPT, hébergés aux États-Unis, ou le mix inclut plus d’énergies fossiles.
Éco-concevez vos services d’IA
Si vous devez créer, héberger ou maintenir des modèles d’IA, adoptez une démarche d'écoconception.
- D’une part, mesurez l’impact environnemental de la solution que vous développez, à travers une méthodologie d’Analyse de Cycle de Vie. Les outils web classiques comme EcoIndex ne fonctionnent qu’assez peu sur des services d’IA, dont la majeure partie des impacts se situe côté data center.
- D’autre part, mettez en œuvre des bonnes pratiques d’écoconception pour minimiser la taille et optimiser votre service. Le RGESN dispose désormais d’une section en listant quelques-unes, qui rejoignent celles de l’AFNOR Spec sur l’IA Frugale. Choisissez la solution la plus adaptée à votre besoin spécifique, en considérant les alternatives à l’IA. Compressez vos modèles, avec des techniques de pruning qui permettent de réduire la taille de votre modèle sans perte de précision. Partez d’un modèle pré-entraîné que vous pourrez adapter, plutôt que d’en ré-entraîner complètement un.
Conclusion
L'essor de l’IA générative met d’ores et déjà en danger nos trajectoires de décarbonation et de limitation de nos impacts sur l’environnement. La construction de nouveaux data centers dédiés au fonctionnement de modèles toujours plus gros, tout en accaparant des ressources énergétiques, hydriques et en étant financé à perte pose d’évidentes questions sur la durabilité de la technologie.
Pour autant, l’IA (générative ou non) peut trouver des cas d’usages tout à fait pertinents, dans la recherche médicale par exemple. L’approche adoptée par OVH que nous évoquions en début d’article est peut-être l’une des plus pertinentes également : chercher le modèle le plus efficient, pour limiter nos impacts, tout en bénéficiant des avancées permises par ces technologies et en faisant tourner ces services sur des serveurs localisés en France avec un bon PUE et un mix électrique décarboné. Il faut toutefois y ajouter une nécessaire prise en compte de l’effet rebond, et donc utiliser ces solutions avec parcimonie.
Il n’appartient qu’à nous de mettre en place ce bon équilibre, pour aboutir à un développement maîtrisé de l’IA, avec des fins clairement définies et bénéfiques pour toutes et tous.
Pour aller plus loin :
Retrouvez la présentation d’Omisimo d’OVHCloud, et comparez l’efficience des modèles d’IA sur Hugging Face pour mieux choisir lequel utiliser.
Parce que nous souhaitons mettre le numérique au service d’un développement durable et inclusif, nous avons créé Hetix, une offre dédiée à ces thématiques. Nous pouvons ainsi vous accompagner dans vos démarches d’écoconception de service numérique, notamment ceux mettant en jeu des modèles d’Intelligence Artificielle.