Le chiffre de Stanford qui recadre le débat sur l’IA
L’institut Human-Centered AI (HAI) de Stanford a publié son rapport AI Index 2026 en avril, et parmi ses gros titres sur les progrès figure un chiffre qui change la manière dont les conseils d’administration, les régulateurs et les planificateurs énergétiques doivent penser la technologie. La capacité électrique des centres de données dédiés à l’IA a grimpé à 29,6 gigawatts — la même charge qu’il faut pour alimenter l’État de New York à la demande de pointe. À l’échelle mondiale, la consommation électrique cumulée des systèmes d’IA « tout compris » est désormais comparable à la consommation nationale annuelle de la Suisse ou de l’Autriche.
Ce chiffre n’est pas une projection. Il s’agit du parc installé mesuré par les chercheurs de Stanford à l’entrée de 2026, et il croît plus vite que toute nouvelle source d’énergie ne peut raisonnablement être ajoutée au réseau. C’est aussi pour cela que le rapport, habituellement lu comme un tableau de bord technique, a doublé cette année la place accordée aux indicateurs environnementaux, d’équité et de confiance.
Entraîner un modèle de pointe coûte désormais les émissions d’une ville entière
Le titre sur les 29,6 GW parle de la charge opérationnelle. Le tableau des émissions dû à l’entraînement de nouveaux modèles est tout aussi saisissant. Stanford met en avant Grok 4, le modèle de pointe de xAI entraîné au supercalculateur Colossus à Memphis, comme étude de cas de ce à quoi ressemble un scénario d’entraînement dans le pire des cas en 2026.
Émissions d’entraînement estimées : 72 816 tonnes d’équivalent CO2, soit la production annuelle d’environ 17 000 voitures. L’analyse indépendante d’Epoch AI situe l’empreinte de ressources totale encore plus haut — 310 GWh d’électricité, environ 750 millions de litres d’eau pour le refroidissement, et une empreinte carbone totale plus proche de 154 000 tonnes de CO2 une fois que l’on tient compte du fait que Colossus fonctionnait en grande partie sur des turbines à gaz naturel installées sur site émettant environ 0,49 kg de CO2 par kWh, soit à peu près 1,3 fois la moyenne du réseau américain.
Pour mettre cela en contexte, Epoch estime que les besoins en refroidissement pour la seule exécution de Grok 4 équivalaient à environ 300 piscines olympiques d’eau. Ce n’est pas une curiosité. C’est la réalité opérationnelle de toute organisation cherchant à entraîner un nouveau modèle de classe frontière en 2026.
L’inférence est le plus grand problème à long terme
L’entraînement fait les gros titres, mais l’inférence — l’électricité et l’eau dépensées chaque fois qu’un utilisateur envoie une requête — est l’endroit où les mathématiques environnementales de long terme se brisent réellement. Le rapport de Stanford estime que la consommation annuelle d’eau de la seule inférence de GPT-4o pourrait dépasser les besoins en eau potable d’environ 12 millions de personnes. Multipliez cela par la dizaine de modèles de pointe qui servent aujourd’hui des centaines de millions d’utilisateurs quotidiens, et l’inférence devient discrètement le poste dominant.
Cela compte pour les achats. Lorsqu’un modèle reste en production pendant deux ou trois ans, chaque point de pourcentage d’efficacité d’inférence se traduit directement en mégawatts de consommation évitée sur le réseau. C’est pourquoi les améliorations de compression de Gemini 3.1 Pro et les architectures Mixture-of-Experts ne sont plus uniquement des histoires de performance — ce sont des histoires de durabilité avec des conséquences sur les capex et les relations publiques.
Publicité
Ce que signifient les 29,6 GW pour les entreprises
- L’énergie est le nouveau goulot d’étranglement, pas les GPU. Les hyperscalers implantent désormais leurs centres de données en fonction du raccordement au réseau et des droits d’eau disponibles plutôt que de la fibre ou de l’immobilier. L’engagement capex FY26 de Microsoft d’environ 140 milliards de dollars et les 200 milliards d’Amazon incluent des contrats d’achat d’énergie pluriannuels avec des fournisseurs nucléaires et renouvelables, car les raccordements réseau directs ne sont plus disponibles dans de nombreuses régions prioritaires.
- Les divulgations de durabilité vont devenir sérieuses. L’AI Act de l’UE, la SB 253 de la Californie et les Sustainability Disclosure Standards du Royaume-Uni exigent tous des acheteurs d’IA en entreprise qu’ils suivent les émissions de Scope 3 des fournisseurs de cloud et de modèles. Les chiffres de Stanford deviendront les données de référence que citeront les auditeurs.
- Le choix des modèles prendra en compte le carbone par requête. Attendez-vous à ce que les appels d’offres des secteurs réglementés — finance, santé, administration — incluent des métriques d’émissions et d’eau par inférence aux côtés de la précision et de la latence dans les 12 prochains mois. Les modèles spécialisés plus petits et les architectures efficaces remporteront des contrats que les modèles de pointe perdront.
- La perception publique évolue. Les données d’enquête de Stanford elles-mêmes montrent un écart qui se creuse entre les initiés de l’IA, qui restent optimistes, et le grand public, dont l’inquiétude quant aux coûts environnementaux de l’IA a fortement augmenté en 2026. Cet écart devient un risque de réputation pour toute entreprise qui se présente comme alignée sur le climat tout en déployant des charges de travail génératives lourdes.
La course à l’efficacité est désormais existentielle
La bonne nouvelle enfouie dans le rapport : l’efficacité progresse plus vite que la plupart des observateurs ne l’avaient prévu. Les modèles deviennent moins chers à exécuter par token, l’efficacité d’entraînement a à peu près doublé d’une année sur l’autre pour les systèmes de classe frontière, et de nouvelles architectures telles que la compression à long contexte et le routage mixture-of-experts réduisent le coût d’inférence par requête. Stanford note que le coût d’inférence au niveau de GPT-3.5 a chuté de plus de 280 fois depuis fin 2022.
Mais les gains d’efficacité sont dépassés par la mise à l’échelle. Chaque fois qu’un modèle devient 10 fois moins cher à exécuter, l’usage croît 50 fois. Le paradoxe de Jevons en action. C’est pourquoi le chiffre de 29,6 GW compte même avec une efficacité en amélioration — la demande absolue continue d’augmenter, et le goulot d’étranglement est passé du silicium à la capacité du réseau et aux droits d’eau.
Ce qu’il faut surveiller dans les 12 prochains mois
- Partenariats nucléaires — Microsoft, Amazon, Google et Meta ont tous signé des accords avec des opérateurs nucléaires existants ou nouveaux. Attendez-vous à des mises à jour de mise en service tout au long de 2026-2027.
- Engagements « water-positive » — Plusieurs hyperscalers se sont engagés à des opérations « water-positive » d’ici 2030. Le prochain Index de Stanford sera la première vérification neutre pour savoir s’ils sont sur la bonne voie.
- Déclarations réglementaires — Le Code de conduite de l’UE pour l’IA à usage général exige des divulgations d’émissions de la part des fournisseurs de modèles à partir de mi-2026. Ce sera la première publication de données à grande échelle, juridiquement contraignante, comparable à celle que Stanford assemble.
- Transparence des cartes de modèle — La pression monte sur les laboratoires pour qu’ils publient le CO2 et la consommation d’eau des entraînements dans les cartes de modèle. Anthropic et Google s’y sont engagés. xAI, OpenAI et Meta non.
Le chiffre de 29,6 GW de Stanford est le genre de nombre qui change la façon dont les directeurs financiers, DSI et responsables de la durabilité se parlent. Pour 2026, la question n’est plus de savoir si l’IA est puissante — c’est de savoir si le réseau peut suivre.
Questions Fréquemment Posées
Comment les 29,6 GW de puissance des centres de données d’IA se comparent-ils aux réseaux nationaux existants?
29,6 GW est comparable à la demande de pointe d’électricité de l’État de New York et se rapproche de la consommation annuelle d’électricité de la Suisse ou de l’Autriche. Il s’agit de la capacité installée spécifique à l’IA début 2026, et non d’une projection, et elle croît plus vite que la plupart des réseaux régionaux ne peuvent ajouter de nouvelle production.
Pourquoi l’inférence, et non l’entraînement, est-elle le plus grand problème environnemental à long terme?
Entraîner un modèle de pointe est un coût ponctuel — les 72 816 tonnes de CO2 de Grok 4 se sont produites une seule fois. L’inférence est continue : chaque requête de centaines de millions d’utilisateurs quotidiens consomme de l’électricité et de l’eau. Stanford estime que la seule inférence de GPT-4o pourrait dépasser les besoins en eau potable de 12 millions de personnes par an. Sur une durée de production de deux à trois ans d’un modèle, l’inférence domine typiquement les émissions totales.
Que doivent faire les entreprises concernant les émissions de Scope 3 de leurs fournisseurs d’IA?
Commencez dès maintenant à suivre les données d’émissions fournies par les fournisseurs. L’AI Act de l’UE, la SB 253 de la Californie et les Sustainability Disclosure Standards du Royaume-Uni exigeront le reporting Scope 3 des fournisseurs de cloud et de modèles. Privilégiez les fournisseurs qui publient les chiffres CO2 de leurs entraînements (Anthropic, Google) et envisagez des modèles spécialisés plus petits lorsque la performance de pointe n’est pas requise. Incluez des métriques de carbone par requête aux côtés de la précision et de la latence dans les appels d’offres d’IA.
Sources et lectures complémentaires
- Inside the AI Index: 12 Takeaways from the 2026 Report — Stanford HAI
- The 2026 AI Index Report — Stanford HAI
- What did it take to train Grok 4? — Epoch AI
- Stanford’s 2026 AI Index: progress on capabilities but flags environmental costs — Complete AI Training
- Stanford’s AI Index for 2026 Shows the State of AI — IEEE Spectrum






