L'empreinte carbone de l'IA : est-ce qu'on regarde les bons problèmes ?
frLa semaine dernière, un énième article m’expliquait que chacune de mes requêtes à ChatGPT détruisait un petit bout de planète. La page a mis quatre secondes à charger. J’ai ouvert DevTools par réflexe : 2,8 Mo de JavaScript, quatorze trackers, trois vidéos en autoplay. L’article me parlait d’empreinte carbone. La page, elle, en avait une bien réelle, mais personne n’en parlait.
J’ai fermé l’onglet. 280 Ko de JavaScript inutilisé sont restés en cache.
Depuis quelques mois, je lis tout ce qui sort sur l’impact écologique de l’IA. Et plus je lis, moins je sais quoi en penser. Pas parce que le sujet est simple ou que je manque de données. Plutôt parce que les données racontent une histoire différente de celle qu’on entend. Un peu comme quand on demande si une voiture électrique c’est « mieux ». Ça dépend. Ça dépend d’où tu vis, de ton mix électrique, de combien de temps tu gardes ta batterie, de ce que tu compares et de ce que tu choisis de ne pas comparer.
L’IA et le carbone, ça a l’air d’être la même embrouille.
Je ne suis pas journaliste. Ce texte n’essaie de convaincre personne. Ni d’utiliser l’IA, ni de s’en passer. L’empreinte carbone est une question parmi d’autres, et il y a des raisons parfaitement valides de refuser l’IA qui n’ont rien à voir avec les watts : propriété intellectuelle, concentration du pouvoir, désinformation, impact sur le travail. Bon Pote a publié un manifeste qui pose des lignes claires. Ce n’est pas mon angle ici. Moi, je me pose des questions sur les chiffres, et je m’aperçois que je n’ai presque que des questions.
Avertissement honnête : la plupart des chiffres qui suivent sont des estimations. Pas des mesures. Google auto-rapporte. OpenAI auto-rapporte. Les chercheur·euses extrapolent à partir de modèles. Peu de gens ont accès aux vrais chiffres de consommation, et ceux qui les ont n’ont pas d’intérêt évident à les publier. Ce que j’ai, c’est la meilleure littérature que j’ai pu trouver. Ce n’est pas la vérité. C’est un point de départ. Une exception notable : Mistral a mandaté une analyse de cycle de vie complète avec Carbone 4 et l’ADEME. Émissions amont, fabrication des serveurs, eau, ressources. À peu près les seuls à ouvrir le capot.
Entre 0,1 et 0,2 % de la consommation électrique mondiale.12 Je m’attendais à plus. Beaucoup plus.
Le chiffre de « 10 fois plus d’énergie qu’une recherche Google » circule encore partout. Les estimations récentes sont nettement plus basses. Jegham et al. ont benchmarké plus de 30 modèles sur des requêtes courtes (~300 tokens en sortie).3 Les plus efficients (Gemini Flash) descendent à 0,3 Wh. Le modèle par défaut quand on ouvre ChatGPT ou Claude : environ 1 Wh. C’est le chiffre que j’utilise comme référence dans la suite, pas le meilleur cas, pas le pire, le cas normal.
Même Epoch AI, qui produit les chiffres les plus cités, prévient :
I’ve tried to err on the side of pessimism (higher energy costs) with every assumption. […] More transparency from OpenAI and other major AI companies would help produce a better estimate.
On travaille à l’aveugle.
Le 2,9 Wh, d'où ça vient ?
Le 2,9 Wh que tout le monde cite ? C’est une estimation de 2023.4 Depuis, les chiffres ont chuté : Epoch AI, Google et des chercheur·euses indépendant·es convergent vers 0,24 à 0,42 Wh pour les modèles les plus efficients.567 Google indique que cette même requête consommait ~8 Wh il y a douze mois, 33 fois plus.6 On débat avec les chiffres de 2023 dans un monde qui a changé trois fois depuis.
Mais « 1 Wh » ne veut rien dire tout seul. L’IA, c’est un spectre :
De 0,05 à 14 Wh. Un facteur 280.
Et quand on sort du texte, les ordres de grandeur explosent : Sora d’OpenAI consommerait environ 1 kWh pour générer 5 secondes de vidéo.8 Environ 1 000 requêtes texte.
Dire « l’IA consomme X » sans préciser quel modèle, c’est comme dire « un véhicule consomme X » sans distinguer un vélo cargo d’un SUV.
Ces Wh par requête, c’est la loupe braquée sur l’IA. Si on regarde le numérique dans son ensemble, la photo est différente. IEEE Spectrum a publié une répartition en février 2026 qui m’a surpris9 :
La moitié du carbone de la tech, c’est fabriquer les appareils qu’on met dans nos poches. Les data centers, IA comprise, n’arrivent qu’en deuxième position.
Le tiroir qu’on a toustes quelque part, les vieux téléphones, le laptop d’avant, la tablette qu’on n’utilise plus. 75 % des émissions d’un smartphone surviennent avant même qu’il soit allumé. Le carbone est dans la fabrication, pas dans l’usage. On en change tous les deux à trois ans. Par habitude. Sans y penser.9 Et on pointe du doigt les data centers IA qui, eux, sont mutualisés entre des millions d’utilisateur·ices.
(Mon téléphone a trois ans. Je le trouvais lent la semaine dernière. Le garder une année de plus serait probablement plus impactant que toutes les requêtes IA que j’éviterais des 10 prochaines années…)
Bon. Mais quand même. Pourquoi est-ce qu’on ne parle que de l’IA ? Tirons le fil.
La publicité digitale. Celle-là, je la connais bien, j’ai travaillé pour des boîtes qui en vivaient. 70 % des pubs programmatiques ne sont jamais vues par un humain.10 Et pourtant elles tournent, elles trackent, elles émettent. Scope3 a mis un chiffre là-dessus : 215 000 tonnes de CO₂ par mois.11 Juste le programmatique. Cinq pays. Pour des pubs que personne ne regarde. Lumen Research résume :
Low attention, but high emissions, which is the worst of all worlds.
— Lumen Research / Scope3, We Need to Talk About the Carbon Cost of Attention
Des émissions pour des impressions fantômes. Et les données récoltées par ces 10 à 20 pixels de tracking par page… est-ce que quelqu’un les utilise vraiment ?
(J’ai un bloqueur de pub. Je me demande si c’est de l’écologie ou du confort. Probablement les deux. 🙃)
Un miroir que je préférerais éviter. Ce que moi, développeur, je contrôle directement, et que je ne questionne presque jamais.
Mon pipeline CI/CD. Chaque pull request déclenche un build complet : dépendances, tests, image Docker. Ça tourne. Green Coding a mesuré l’empreinte de projets open source. Docker : 11,7 kg de CO₂ par mois, juste pour la CI,12 curl : 6,8 kg.12 Ce n’est pas le code de production qui brûle. Ce sont les pipelines.
Déplacer sa CI de Virginie vers la Suède réduirait les émissions de 97 %.13 Same code, different grid.
97 %.
Dans ma boîte, la CI lance 80 000 tests en parallèle sur une dizaine de machines, 10 à 15 minutes par run. 3 000 runs par mois pour 30 développeur·euses. Pas de bugs en prod. Mais ça brûle.
Au pifomètre, ça donne quoi ?
10 machines virtualisées (CircleCI/AWS), ~40 W chacune avec le refroidissement. 12 minutes par run, 3 000 runs par mois. Ça fait environ 250 kWh par mois. Sur un grid américain, ~100 kg de CO₂. Sur le grid français, ~14 kg.
Au tarif de 1 Wh par requête, c’est 250 000 requêtes ChatGPT. Juste pour vérifier que le code compile. C’est du pifomètre. Mais l’ordre de grandeur est là.
Facebook a publié un papier sur la predictive test selection14 : du ML classique qui choisit quels tests lancer selon le diff. Le coût d’infra divisé par deux, 95 % des régressions toujours attrapées. Pas un LLM. Juste du machine learning sobre, appliqué au bon endroit. Pourquoi est-ce que ce n’est pas dans GitHub Actions ? Pas dans l’intérêt des vendors, peut-être. Chaque run facturé, chaque minute comptée, les marges sont belles quand tout tourne à chaque push.
Et puis les langages eux-mêmes. Ruby consomme 60 fois plus que C sur des tâches équivalentes.1516 On accepte ce coût parce que le temps humain coûte plus cher que le temps machine. Mais si c’est l’IA qui écrit le code, l’argument s’effondre. Le développeur n’est plus le goulot. Le langage redevient le facteur dominant. Peut-être.
Et puis le frontend. La page web médiane pèse 2,6 Mo. Plus que le jeu Doom de 1993.17 280 Ko de JavaScript inutilisé : téléchargé, parsé, compilé, exécuté, pour rien. En 2012, une page mobile pesait 386 Ko. Aujourd’hui, 2,5 Mo.18 Et 82 % du JavaScript gaspillé est first-party.19 Pas les trackers. Nous.
Chaque page vue émet environ 0,36 gramme de CO₂.20 Multiplié par des milliards de pages vues par jour. L’ironie de critiquer l’IA depuis une page boursouflée de trackers et de dead code ne m’échappe pas.
L’IA aussi gaspille, bien sûr.
On a vu les écarts entre modèles plus haut. Sur des requêtes longues (~1 500 tokens en sortie), c’est pire : GPT-5 nano en mode minimal consomme 0,77 Wh. GPT-5 en mode raisonnement intense : 28 Wh. 36 fois plus.3 Le même modèle, la même question. Pour certaines opérations, c’est prendre un 38 tonnes pour aller chercher une baguette de pain.
Et contrairement à une recherche Google qui a une durée de vie de quelques secondes, un agent IA qui tourne en boucle pendant une heure accumule ces coûts silencieusement.
Mistral AI a publié la première analyse de cycle de vie complète d’un modèle (Mistral Large 2, 123 milliards de paramètres), auditée par Carbone 4 et l’ADEME21 :
A model 10 times bigger will generate impacts one order of magnitude larger than a smaller model for the same amount of generated tokens.
— Mistral AI, Our contribution to a global environmental standard for AI
Un ordre de grandeur. Je repense à mes propres réflexes. Hier encore, j’ai lancé Opus là où Haiku aurait suffi, parce que c’est le modèle par défaut, parce que je n’ai pas pris les trois secondes de changer. La plupart des développeur·euses que je connais font pareil. Comme on prendrait l’autoroute sans même chercher s’il existe un sentier.
Le choix géographique pèse aussi. L’intensité carbone de l’électricité en France est 5 à 10 fois inférieure à celle de la plupart des autres pays.21 Mistral construit son datacenter en France pour cette raison précise. La même requête, le même modèle, mais un lieu différent, et l’empreinte change radicalement.
Et l’eau ? La même requête boit aussi. Mistral chiffre 45 ml d’eau par réponse.21 Google rapporte 0,26 ml pour Gemini.6 L’écart entre les deux illustre, encore une fois, à quel point les mesures divergent.
On peut décarboner une électricité. Nucléaire, solaire, éolien. Mais on ne peut pas décarboner un litre d’eau potable évaporé dans le désert de l’Arizona. L’eau, c’est local. Irremplaçable.
La Silicon Valley a un argument. Elle le répète à chaque conférence climat : l’IA est un levier de décarbonation. BCG et Google estiment qu’elle pourrait réduire de 5 à 10 % les émissions mondiales d’ici 2030.22 Optimisation de réseaux électriques, découverte de matériaux, logistique. L’argument a du mérite. Sur le papier.
Stand.earth et la Green Web Foundation ont passé 154 claims de ce type au crible.23 74 % sont unproven. 36 % ne citent aucune source. Et surtout : pas un seul exemple vérifié où l’IA générative (ChatGPT, Gemini, Copilot) a matériellement réduit des émissions. Les gains réels viennent de l’IA traditionnelle : du machine learning sobre pour la météo, les grids, la chimie des matériaux. Pas des LLM à 14 Wh la requête. Michael Khoo (Friends of the Earth) nomme la manœuvre : en mélangeant IA traditionnelle et générative, les solutions climat et la pollution sont présentées comme un package deal.23
Le coût carbone est là, mal mesuré, mais là. Le bénéfice climat ? Pour l’instant, des slides de conférence. On brûle du présent en pariant sur un futur qui n’existe pas encore. Peut-être qu’il existera. Peut-être pas.
De l’autre côté, les gains d’efficacité sont réels. Google a divisé par 33 la consommation par requête en un an.6 Neil Thompson, du MIT, a inventé le terme negaflop : les gains d’efficacité des nouvelles architectures de modèles, qui résolvent les mêmes problèmes en consommant moins d’énergie, doublent tous les huit à neuf mois.24 Si ce rythme tient, les projections basées sur les coûts d’aujourd’hui sont peut-être déjà caduques.
Mais le paradoxe de Jevons rôde. Quand l’IA devient moins chère, on l’utilise plus. Plus de serveurs, plus de pages, plus de compute. L’efficacité crée l’usage, et l’usage finit toujours par bouffer l’efficacité. Google en est peut-être l’illustration involontaire : infrastructure parmi les plus efficaces au monde, et pourtant +13 % d’émissions de gaz à effet de serre en 2023.25 L’efficacité par requête ne suffit pas quand le volume explose.
C’est là que je tourne en rond. Les chiffres par requête semblent négligeables. Multipliés par des milliards d’interactions quotidiennes, ils deviennent vertigineux.26 Mais les chiffres eux-mêmes sont incertains. On bâtit des raisonnements sur du sable.
Personne ne sait comment ça va tourner.
La fabrication des appareils qu’on renouvelle tous les deux ans. La pub que personne ne voit mais que tout le monde paie en carbone. Les pipelines CI qui tournent dans le vide. Les 280 Ko de JavaScript qui ne servent à rien. L’eau qui s’évapore dans des zones qui n’en ont plus.
Et puis il y a les humains derrière la machine. Des travailleur·euses kényan·es payé·es moins de 2 dollars de l’heure pour trier de la violence, de l’abus, de la torture.27 Leurs bureaux, leurs trajets, leur électricité n’apparaissent dans aucun bilan carbone.
La machine a besoin de chair pour apprendre. Cette chair ne figure nulle part dans les tableaux.
Et pour moi ? Pour l’équipe d’à côté. Pour la boîte qui doit livrer vendredi.
Vingt ans à écrire du logiciel. Pas une seule fois j’ai mesuré l’empreinte carbone de quoi que ce soit que j’ai produit. Pas la CI. Pas le JavaScript. Pas les images Docker. Rien. Mesurer, du latin metiri, même racine que modeste : celui qui se mesure. On n’a été ni l’un ni l’autre.
Personne ne me l’a jamais demandé.
Si personne ne mesure, mesurer c’est se ralentir. Si tout le monde ship du JavaScript mort, l’enlever c’est du temps qu’on ne met pas sur une feature. La sobriété logicielle, aujourd’hui, c’est un désavantage concurrentiel.
La sécurité a été un désavantage concurrentiel aussi, jusqu’à ce que les brèches coûtent plus cher que la prévention. Le carbone attend peut-être sa propre contrainte. Ou peut-être qu’on attend juste que quelqu’un d’autre commence.
En écrivant ce texte, j’ai utilisé Claude. Sans calculer combien.
IEA, Energy and AI , 2025. ↩︎
Carbon Brief, AI: Five charts that put data-centre energy use and emissions into context , sept. 2025. ↩︎
Jegham et al., How Hungry is AI? , arXiv, 2025 (v6). Dashboard interactif . ↩︎ ↩︎
Alex de Vries, Joule, oct. 2023. ↩︎
Epoch AI, How much energy does ChatGPT use? , fév. 2025. ↩︎
Google Cloud Blog, Measuring the environmental impact of AI inference , août 2025. Données auto-rapportées. ↩︎ ↩︎ ↩︎ ↩︎
Sam Altman, The Gentle Singularity , juin 2025. Données auto-rapportées. ↩︎
Hannah Ritchie, What’s the carbon footprint of using ChatGPT or Gemini? , Sustainability by Numbers, août 2025. ↩︎
IEEE Spectrum, Data Center Sustainability Metrics: Hidden Emissions , fév. 2026. ↩︎ ↩︎
The Ecologist, Digital marketing’s carbon footprint ↩︎
Scope3, Programmatic advertising generates 215,000 metric tons of carbon emissions each month ↩︎
Green Coding, The Carbon Cost of Testing Pipelines . Estimations via Eco-CI, extrapolées à partir d’un mois de données. ↩︎ ↩︎
Pranab Paul, Green DevOps , Medium, juil. 2025. Calcul théorique, pas une mesure réelle. ↩︎
Machalica et al., Predictive Test Selection , 2018. ↩︎
Pereira et al., Ranking Programming Languages by Energy Efficiency, Science of Computer Programming, 2021. ↩︎
Green Coding, Energy Efficiency of Programming Languages — Revisiting Python in 2024 , mai 2024. Trouve entre 48x et 61x selon la version Python. PyPy réduit l’écart à 21x. ↩︎
HTTP Archive, Web Almanac 2025 / CaptainDNS, Median web page weight 2025 . ↩︎
Climate Logic, The Expanding Size of Websites: A Decade of Growth , juil. 2025. ↩︎
HTTP Archive, Web Almanac 2020 — JavaScript . Chapitre sur le JavaScript first-party vs third-party. ↩︎
Wholegrain Digital, Website Carbon Calculator . Estimation modélisée, pas une mesure directe. ↩︎
Mistral AI / Carbone 4 / ADEME, Our contribution to a global environmental standard for AI , juil. 2025. Intensité carbone France : 57 gCO₂/kWh. ↩︎ ↩︎ ↩︎
BCG / Google, How AI Can Speed Up Climate Action , COP28, 2023. ↩︎
Stand.earth / Green Web Foundation, Report Exposes Big Tech’s AI Climate Hoax , fév. 2026. ↩︎ ↩︎
Goldman Sachs Research, cité par MIT News, Responding to the climate impact of generative AI , sept. 2025. ↩︎
Google, 2024 Environmental Report . ↩︎
Scott Logic, Reading The Gentle Singularity Through a Sustainability Lens , sept. 2025. ↩︎
Time Magazine, OpenAI Used Kenyan Workers on Less Than $2 Per Hour , jan. 2023. ↩︎