Le Réseau Ne Peut Pas Suivre la Cadence du Calcul
Pendant la majeure partie de l’histoire des centres de données, l’électricité était un coût à gérer, non une contrainte à contourner par l’ingénierie. Les opérateurs sélectionnaient des sites avec une électricité réseau bon marché, concevaient des installations aux standards habituels d’efficacité énergétique, et supposaient que le réseau s’adapterait à la demande. Cette hypothèse s’est effondrée entre 2024 et 2026.
L’Agence Internationale de l’Énergie rapporte que la consommation mondiale d’électricité des centres de données a atteint environ 485 TWh en 2025, soit une augmentation de 17 % par rapport aux 415 TWh de 2024. Les centres de données axés sur l’IA ont progressé de 50 % au cours de la même période. Cinq grandes entreprises technologiques ont dépassé 400 milliards de dollars de dépenses en capital combinées en 2025, avec une nouvelle augmentation de 75 % anticipée en 2026. La demande agrégée que ce capital crée — pour les clusters GPU, pour l’infrastructure d’inférence, pour les systèmes de refroidissement et de conversion d’énergie qui les entourent — arrive dans les sous-stations plus vite que les compagnies d’électricité ne peuvent construire des lignes de transmission et des transformateurs.
Morgan Stanley Research prévoit que la demande américaine des centres de données pourrait atteindre 74 GW d’ici 2028. Aux points de connexion réseau existants, l’accès à la puissance disponible est d’environ 25 à 29 GW — un déficit de 45 à 49 GW selon l’estimation. Les délais d’attente pour la connexion réseau en Virginie du Nord (le plus grand marché mondial de centres de données), Phoenix et Chicago atteignent désormais 2 à 5 ans. Les prévisions 2026 de l’Uptime Institute identifient l’électricité comme la seule contrainte déterminante sur la croissance mondiale des centres de données, projetant que la charge de puissance des centres de données liés à l’IA atteindra 10 GW d’ici fin 2026 — non pas parce que la demande plafonne, mais parce que la capacité réseau et de production ne peut pas être construite assez rapidement.
Il ne s’agit pas d’une douleur de croissance temporaire. C’est un déficit structurel qui persistera jusqu’à la fin des années 2020 en l’absence d’une accélération fondamentale dans le développement du réseau, la réforme des permis et le déploiement de la génération sur site.
Cinq Stratégies d’Ingénierie Utilisées Aujourd’hui
La réponse au goulot d’étranglement réseau n’est pas une solution unique mais un portefeuille de stratégies, chacune traitant une dimension différente du problème d’accès à la puissance. Les hyperscalers et leurs opérateurs spécialisés de centres de données déploient les cinq simultanément.
Stratégie 1 : Génération Gazière sur Site et Microréseaux
Les opérateurs sur des marchés à réseau contraint supplémentent ou contournent de plus en plus la connexion réseau par une génération sur site. Les turbines à gaz à cycle combiné, les turbines à gaz aéroderivées conçues pour un démarrage rapide, et les systèmes diesel de secours sont dimensionnés non pas comme sauvegarde d’urgence mais comme sources d’énergie primaires pour des installations qui ne peuvent pas attendre une connexion réseau. Cette approche échange l’empreinte carbone contre la rapidité — une installation qui doit être opérationnelle en 18 mois ne peut pas attendre 36 mois pour une mise à niveau de transmission.
Stratégie 2 : Refroidissement Liquide pour Réduire la Puissance par GPU
Les racks GPU alimentant les grands modèles de langage et les clusters d’entraînement IA atteignent des densités de puissance de 40 à 100+ kilowatts par rack — contre 3 à 8 kW/rack pour les serveurs standard. Le refroidissement liquide direct (DLC) et le refroidissement par immersion réduisent l’overhead énergétique de refroidissement de 30 à 50 % par rapport au refroidissement par air. Google, Meta et Microsoft déploient le refroidissement liquide comme standard pour les nouveaux racks IA haute densité, non comme une option premium. La puissance économisée par le refroidissement liquide réduit directement la consommation totale de l’installation.
Stratégie 3 : Effacement et Décalage Temporel des Charges de Travail IA
Les clusters d’entraînement, les tâches d’inférence par lots et les travaux de traitement de données peuvent être décalés dans le temps — exécutés pendant les heures creuses du réseau. Les hyperscalers construisent des systèmes de gestion de la réponse à la demande qui déplacent automatiquement les charges de travail appropriées vers des fenêtres creuses moins chères. Google a publié que ses clusters d’entraînement TPU fonctionnent avec une flexibilité temporelle significative. Le résultat effectif est qu’un centre de données tirant 1 GW en pointe peut avoir une consommation moyenne de 700 à 800 MW si les charges de travail sont planifiées de manière flexible — une réduction de 20 à 30 % de l’impact réseau sans réduire la production totale de calcul.
Stratégie 4 : Sélection de Sites Autour des Actifs de Production d’Énergie
Le nouveau modèle de sélection de sites ajoute un quatrième critère à la connectivité fibre, aux incitations fiscales et au coût du terrain : la proximité des actifs de production d’énergie. Les parcs éoliens au Texas et dans le Midwest, les ressources hydroélectriques dans le Pacifique Nord-Ouest et en Scandinavie, et les ressources géothermiques en Islande et en Afrique orientale sont désormais des moteurs primaires de sélection de sites. Le partenariat du centre de données Kenya de Microsoft avec G42 est explicitement alimenté par géothermie. La colocalisation avec des actifs de production plutôt que de servir la charge depuis le réseau élimine entièrement le problème de file d’attente de connexion.
Publicité
Ce que les Responsables Techniques Devraient Faire
Le goulot d’étranglement énergétique affecte non seulement les hyperscalers mais toute organisation exploitant une infrastructure de calcul significative — institutions financières, systèmes de santé, contractants de défense et grandes entreprises gérant une infrastructure IA sur site.
1. Ajouter un calendrier d’alimentation au chemin critique de tout projet de centre de données
Un nouveau bâtiment de centre de données nécessitant une nouvelle connexion réseau devrait ajouter 24 à 36 mois à son calendrier de projet pour l’approbation de connexion réseau et la construction d’infrastructure dans les marchés contraints. C’est la moyenne actuelle en Virginie du Nord, Phoenix et Chicago. Les responsables techniques qui commencent des projets sans tenir compte de ce délai feront face à des retards de construction ou à l’utilisation coûteuse de solutions de génération intérimaires. La solution est simple : engager le service public local au stade de conception du projet, non à l’achèvement de la conception de l’installation.
2. Imposer les spécifications de refroidissement liquide pour tout rack GPU au-dessus de 20 kW/rack
Le refroidissement par air au-dessus de 20 kW/rack est économiquement et physiquement inefficace. Le refroidissement liquide à la même densité réduit l’overhead de refroidissement de 40-60 % à 5-10 %. À grande échelle, un cluster GPU de 10 MW utilisant le refroidissement liquide plutôt que l’air réduit la consommation totale de l’installation d’environ 1,5 à 2 MW — suffisant pour alimenter 1 500 maisons résidentielles supplémentaires sur la même connexion réseau.
3. Engager votre fournisseur d’énergie pour des structures tarifaires d’effacement avant d’en avoir besoin
Les services publics sur les marchés à réseau contraint cherchent activement des grands clients industriels disposés à participer à des programmes d’effacement — acceptant une réduction pendant les événements de demande de pointe en échange de tarifs moyens inférieurs. Pour les organisations gérant des charges de travail d’entraînement IA avec une flexibilité temporelle, c’est un échange de valeur simple : planifier les travaux d’entraînement pendant les fenêtres creuses, accepter une réduction occasionnelle en heure de pointe, bénéficier de coûts d’énergie moyens inférieurs de 15 à 25 %. Le processus de qualification et de contractualisation prend 6 à 12 mois.
Sa Place dans le Paysage Infrastructurel de 2026
Le goulot d’étranglement énergétique est la contrainte la plus conséquente à court terme sur le rythme du déploiement de l’IA. Un cluster GPU qui ne peut pas obtenir d’alimentation ne peut pas entraîner de modèles ni servir d’inférence — quelle que soit la sophistication du silicium. Les stratégies d’ingénierie présentées ci-dessus sont des réponses à un problème déjà actif dans les marchés les plus denses en calcul, et qui se propagera aux marchés secondaires dans les 12 à 24 mois suivants.
L’implication structurelle profonde est que les centres de données passent de consommateurs passifs d’électricité à participants actifs dans la conception des systèmes énergétiques. Un hyperscaler qui signe un accord d’achat d’énergie, construit une génération derrière le compteur et participe à des programmes d’effacement n’est plus simplement une charge sur le réseau — il est simultanément un producteur, un opérateur de stockage et un service de stabilisation du réseau.
Pour les responsables techniques, le cadre actionnable est le suivant : le coût de résolution proactive du problème énergétique — engagement précoce des services publics, spécification du refroidissement liquide maintenant, participation aux programmes d’effacement — est une fraction minime du coût d’être pris par les contraintes réseau lors d’une construction d’infrastructure critique. Le déficit de 49 GW n’est pas une abstraction. Il se manifeste déjà dans la file d’attente au poste de transformation de Virginie du Nord.
Foire aux Questions
Que signifie le déficit américain de 49 GW pour les acheteurs cloud d’entreprise ?
Le déficit signifie que les nouvelles capacités de centres de données dans les marchés américains les plus contraints (Virginie du Nord, Phoenix, Chicago) sont retardées par des délais de connexion réseau de 2 à 5 ans. Les hyperscalers sécurisent la capacité en avance sur les entreprises en signant des accords d’énergie et en construisant une génération derrière le compteur. Les acheteurs d’entreprise qui ont besoin de capacité GPU pour 2027-2029 devraient la réserver maintenant auprès des hyperscalers, car la capacité disponible dans les régions contraintes se resserrera davantage.
Le refroidissement liquide est-il sûr pour le matériel GPU par rapport au refroidissement par air ?
Oui. Le refroidissement liquide direct (DLC) fait circuler de l’eau vers des plaques froides fixées directement au processeur, sans que l’eau entre en contact avec les composants électriques. Le refroidissement par immersion submerge les serveurs dans un fluide diélectrique non conducteur. Les deux sont déployés à l’échelle commerciale par Google, Meta et Microsoft pour les racks GPU IA. Le refroidissement liquide réduit effectivement le stress thermique sur les semi-conducteurs par rapport au refroidissement par air, car il offre une exploitation à température plus constante et plus basse.
Dans quelle mesure les programmes d’effacement peuvent-ils réduire les coûts énergétiques d’un centre de données ?
Les organisations participant aux programmes d’effacement des services publics économisent généralement 15 à 25 % sur les coûts moyens d’énergie, selon la structure tarifaire du service public et la flexibilité des charges de travail de l’organisation. Pour un centre de données de 10 MW consommant 87 600 MWh annuellement, une réduction de 20 % représente environ 1 à 2 millions de dollars d’économies annuelles aux tarifs commerciaux habituels. Le processus de qualification et de contractualisation prend 6 à 12 mois.
—
Sources et lectures complémentaires
- Powering AI: Energy Market Outlook 2026 — Morgan Stanley
- Data Centre Electricity Use Surged in 2025 — IEA
- Morgan Stanley Warns of Looming 45-Gigawatt US Power Shortage — MLQ.ai
- Morgan Stanley Sees Up to 20% Shortage of US Power for Data Centers Through 2028 — Investing.com
- Global Data Center Power Demand to Double by 2030 on AI Surge — S&P Global
- An Analysis of Small Modular Reactors for Commercial Electricity Generation — Yale Clean Energy Forum
















