Les dépenses d’investissement combinées des quatre plus grands hyperscalers doivent dépasser 600 milliards de dollars en 2026, un bond de 36 % sur 2025 et l’un des plus grands chantiers corporatifs de l’histoire industrielle moderne. Amazon mène avec environ 200 Md$, Google à 180 Md$, Microsoft à 145 Md$ et Meta entre 115 et 135 Md$. Environ trois quarts — près de 450 Md$ — sont directement liés à l’infrastructure IA : GPU, réseau, énergie et coques de data centers. Pour chaque DSI, ingénieur plateforme et fondateur qui construit sur le cloud en 2026, la forme de ces dépenses détermine ce qui est disponible, à quel prix, et quand.
Où va réellement l’argent
En décomposant la portion IA, quatre postes dominent :
GPU et accélérateurs. NVIDIA H200, B200 et prochaines Blackwell Ultra, avec des allocations croissantes pour AMD MI300X/MI355 et le silicium maison (Google TPU, AWS Trainium/Inferentia, Microsoft Maia, Meta MTIA). Les accélérateurs seuls représentent une part majeure du coût par data center.
Énergie et refroidissement. Un campus moderne d’entraînement IA consomme désormais des centaines de mégawatts. PPA, mises à niveau de transmission et rénovations de refroidissement liquide pèsent lourd en capex. Plusieurs hyperscalers ont signé des PPA nucléaires pour sécuriser une charge de base décarbonée à long terme.
Tissu réseau. Réseaux InfiniBand et RoCE intra-data-center, interconnexions optiques entre campus, câbles sous-marins. Entraîner des modèles frontier sur des dizaines de milliers de GPU est autant un problème réseau qu’un problème de compute.
Coques de data centers et terrains. L’immobilier physique est la pièce la moins glamour et parmi les plus difficiles à accélérer. Les délais sur les nouveaux sites s’étirent sur 24-36 mois.
La dette remplace le cash pour la première fois à grande échelle
Jusqu’en 2024, la majorité du capex hyperscaler provenait du cash opérationnel. En 2026, le financement par dette est utilisé à grande échelle pour la première fois. L’accord Meta-Nebius à 27 Md$ — où Meta loue effectivement de la capacité GPU à un tiers, qui lève lui-même de la dette pour construire les data centers — est le modèle que plusieurs copient.
Les reportages de Network World sur les carnets de commandes hyperscaler montrent que la demande continue de dépasser l’offre : Microsoft et Google citent tous deux des RPO multi-milliards liés à des engagements IA non encore livrés parce que la capacité n’existe pas encore.
Ce que cela signifie pour la disponibilité et les prix GPU
Trois dynamiques vont façonner le marché GPU 2026-2027 :
- La capacité frontier reste contrainte. Même avec un capex qui double, obtenir des milliers de Blackwell Ultra à la demande exigera encore des cycles longs ou des accords de co-développement.
- Les prix à la demande mid-tier se stabilisent. À mesure que la capacité H100 et H200 entre en service, le prix à la demande et spot pour des workloads d’un à quelques centaines de GPU modère. C’est le niveau le plus pertinent pour la majorité des startups et entreprises.
- La différenciation régionale croît. États-Unis, UE et certaines régions Asie-Pacifique auront les catalogues les plus larges en premier. D’autres régions — dont l’Afrique et des parties du Moyen-Orient — verront un déploiement plus lent, poussant les équipes vers des alternatives de compute souverain (Singapour et les programmes nationaux IA du Golfe sont des références de construction régionale rapide).
Publicité
Le risque de concentration
Futurum Group projette un capex IA 2026 approchant 690 Md$ quand on inclut les non-hyperscalers. Un cercle restreint d’acheteurs place des commandes qui dépassent la plupart des budgets d’infrastructure nationaux. Le Forum économique mondial a signalé la prévision de 7 000 Md$ d’infrastructure IA sur la décennie comme un événement de concentration de capital comparable au buildout télécom du début des années 2000. L’implication pour tous les autres : vous construisez sur une pile façonnée par un très petit nombre de décisions d’achat.
Ce que les équipes plateforme et cloud doivent planifier
Diversifier charges frontier et production. Même si la majorité de l’entraînement et de l’inférence atterrit chez un fournisseur, maintenez des comptes et runbooks actifs sur un second.
Intégrer des engagements de capacité dans les contrats. Les remises capacity-reserved et committed-use comptent à la fois pour le coût et l’accès garanti quand l’on-demand manque.
Modéliser l’énergie comme ressource rare. Si vous opérez de l’infrastructure privée ou colocalisée, surveillez les termes PPA. La volatilité du prix de l’énergie est désormais un risque plus grand que la dépréciation matérielle pour certaines charges.
Planifier pour le sweet spot mid-tier. Le plus grand effet de démocratisation du buildout 600 Md$ est la disponibilité élargie de capacité H100/H200 à prix modérés. Architecturez pour en profiter plutôt que courir après Blackwell Ultra.
Anticiper le retard régional. Si vous opérez hors des États-Unis et de l’UE, supposez un retard de 6-18 mois sur les nouveaux accélérateurs. Cela façonne la stratégie de localisation.
Bilan
Le chiffre de 600 Md$ est moins un titre qu’un ancrage de planification. Il signale que le compute IA passe du luxe rare à la commodité industrielle, mais la transition court au moins jusqu’en 2027. Les équipes qui cartographient leurs charges aux paliers de capacité construits — et qui négocient optionalité commerciale et technique — captureront la valeur.
Questions fréquentes
Pourquoi le capex hyperscaler monte-t-il si vite en 2026 ?
La demande pour l’entraînement et l’inférence IA a dépassé l’offre data-center existante, et construire de nouvelles capacités exige terrains, énergie, accélérateurs et réseaux — tous à longs délais.
Les prix GPU vont-ils fortement baisser en 2026 ?
Les prix à la demande mid-tier (H100, H200) devraient modérer. La capacité Blackwell Ultra frontier restera tendue et chère.
Comment les équipes plus petites sans budget hyperscaler doivent-elles réagir ?
Verrouiller les remises committed-use là où l’usage est prévisible, diversifier sur deux fournisseurs, et architecturer pour tourner efficacement sur accélérateurs mid-tier.
Sources et lectures complémentaires
- Hyperscaler Capex $600B in 2026: A 36% Increase Over 2025 — ComSoc Technology Blog
- AI Capex 2026: The $690B Infrastructure Sprint — Futurum Group
- Hyperscaler Backlogs Show Growing Demand for AI Infrastructure — Network World
- Are AI Investments Sizing Up the $7 Trillion Buildout Right? — World Economic Forum






