Une courbe de dépenses qui a brisé l’échelle
Les chiffres sont stupéfiants. Les dépenses d’investissement combinées 2026 des quatre plus grands hyperscalers — Alphabet, Microsoft, Meta et Amazon — s’orientent vers près de 700 milliards de dollars, avec Oracle poussant le top-5 total vers 750 milliards. Par entreprise : Amazon est projeté à environ 200 milliards, Alphabet/Google jusqu’à 185 milliards, Meta jusqu’à 135 milliards, Microsoft 120 milliards ou plus pour l’exercice 2026, et Oracle autour de 45–50 milliards.
Environ 75 % du capex agrégé des hyperscalers — approximativement 450 milliards — se dirige directement vers l’infrastructure IA : GPU, serveurs, centres de données et réseau. C’est une augmentation en glissement annuel de plus de 60 % par rapport aux niveaux déjà historiques de 2025, et les implications de trésorerie sont sévères. Les analystes de Barclays modélisent la chute du free cash flow de Meta de près de 90 % sur son capex guidé, et Amazon est projeté à devenir free-cash-flow négatif en 2026.
La question comptable derrière les dépenses
La controverse réside dans les calendriers d’amortissement. Les hyperscalers amortissent actuellement une part significative du matériel IA sur cinq à six ans. Michael Burry (Scion Asset Management) et d’autres investisseurs argumentent que la vie économique réelle des GPU de frontière est plus proche de deux ou trois ans — produisant ce que Dave Friedman appelle « la question comptable de 176 milliards » : le montant d’amortissement sous-estimé et de profit surestimé estimé pour 2026–2028 sous les calendriers actuels.
L’argument est simple. NVIDIA est passé à une cadence annuelle de produits, chaque génération livrant 2–3× plus de performance par watt. Dans les centres de données où l’énergie est le coût opérationnel dominant, le différentiel de coût total de possession rend le matériel plus ancien non compétitif pour l’entraînement de frontière dans les 18–36 mois. Un calendrier d’amortissement de cinq ans sur une puce économiquement obsolète à deux ans surestime le profit et sous-estime les besoins continus de capex.
Les hyperscalers ont commencé — discrètement — à se réconcilier avec cette réalité. Amazon a raccourci la durée de vie utile d’un sous-ensemble de ses serveurs de six ans à cinq, citant « le rythme accru du développement technologique, particulièrement dans le domaine de l’intelligence artificielle et de l’apprentissage automatique ». D’autres hyperscalers ont prolongé leurs calendriers dans la direction opposée — produisant un traitement comptable incohérent entre des entreprises qui achètent du matériel presque identique.
Le tapis roulant de trois ans : Blackwell → Rubin → post-Rubin
La feuille de route NVIDIA pilote la réalité opérationnelle. Hopper a dominé 2022–2024. Blackwell (GB200, GB300) est le cheval de trait 2024–2026. Vera Rubin — annoncé pour les premiers déploiements en 2026–2027, notamment dans l’accord CoreWeave-Meta de 21 milliards — est la prochaine étape. Une génération post-Rubin est déjà sur la feuille de route pour 2028.
Chaque génération est 2–3× plus efficace par unité de calcul et par watt que celle qu’elle remplace. Cette efficacité n’est pas un plus. Dans les centres de données IA où l’électricité est un poste plus important que le silicium lui-même, faire tourner des GPU de dernière génération après l’arrivée de la nouvelle génération augmente les coûts d’inférence par token au-dessus de ce que les concurrents peuvent offrir. Dans les 18–36 mois, le matériel plus ancien est reconverti de l’entraînement de frontière à l’inférence — ou retiré.
Publicité
Ce que cela signifie pour le cycle capex 2026
Trois effets en aval sont déjà visibles :
La spirale du capex pourrait ne pas décélérer. Les hyperscalers ne peuvent pas réduire le capex IA en toute sécurité sans perdre leur position concurrentielle dans un marché où chaque joueur court après le même calcul. Les analystes d’Invezz notent que ralentir les dépenses risque de perdre la guerre de l’IA. C’est pourquoi les projections de capex 2027 augmentent déjà.
Les locations neocloud deviennent une soupape de sécurité. Quand posséder du matériel signifie absorber un cycle d’obsolescence de 2–3 ans, louer de la capacité dédiée auprès de neoclouds (CoreWeave, Nebius, Lambda) permet aux hyperscalers de convertir le capex fixe en contrats structurés plus flexibles. Les plus de 60 milliards de dépenses neocloud de Microsoft et les 62 milliards combinés de Meta chez CoreWeave (35 Md$) et Nebius (27 Md$) montrent le mécanisme en action.
Les préoccupations sur la qualité des bénéfices s’élargissent. Si les GPU ont vraiment une vie économique de deux à trois ans, des milliers de milliards de matériel IA acheté en 2024–2026 devront être amortis plus vite que les calendriers actuels ne l’impliquent. Cela produit un écart entre le profit déclaré et les besoins réels de réinvestissement — c’est pourquoi les faucons comptables et vendeurs à découvert se sont concentrés sur la question.
La question des rendements durables
La question la plus profonde est de savoir si les 450 milliards par an finissent par générer des rendements qui justifient la dépense. Les perspectives 2026 de Morningstar le présentent comme une course aux armements : les gagnants qui sécurisent le calcul aujourd’hui capturent le flux de revenus qui justifie la dépense, tandis que les retardataires ne rattrapent jamais.
Mais la thèse des rendements durables repose sur deux hypothèses : que les revenus d’inférence se développent assez vite pour amortir le capex d’entraînement, et que l’obsolescence du matériel ne force pas un refresh de capex avant que la première génération ne se rembourse. Si l’une ou l’autre hypothèse échoue, la correction comptable sera douloureuse — pour les hyperscalers et l’écosystème adjacent (services publics électriques, promoteurs immobiliers, opérateurs neocloud) qui s’est structuré autour d’une demande en hausse permanente.
Ce que les acheteurs d’entreprise devraient retenir
Pour les leaders IT d’entreprise, la leçon n’est pas de craindre les dépenses IA, mais de planifier autour d’elles :
- Attendez-vous à ce que le pricing cloud IA reflète l’amortissement accéléré. Les fournisseurs doivent répercuter les coûts de refresh. Le pricing verrouillé pluriannuel est une rareté aujourd’hui — négociez des termes explicites de refresh et de changement de prix.
- Privilégiez les engagements basés sur l’usage plutôt que le matériel dédié. Laissez le fournisseur absorber le risque d’obsolescence.
- Planifiez pour une élévation rapide des capacités. Un modèle qui coûte X à exécuter au T1 2026 coûtera probablement significativement moins sur le silicium de prochaine génération en 2027, changeant l’économie unitaire des fonctionnalités IA au moment où un produit est lancé.
Le cycle de capex de 450 milliards est réel. La pression d’obsolescence qui le sous-tend aussi. Quiconque construit sur cette infrastructure — des startups aux ministères — devrait planifier un tapis roulant qui ne ralentit pas de sitôt.
Questions Fréquemment Posées
Pourquoi les hyperscalers dépensent-ils autant en infrastructure IA en 2026 ?
Le capex combiné top-5 hyperscalers 2026 est projeté à environ 750 milliards, avec approximativement 450 milliards (75 %) directement alloués à l’infrastructure IA — GPU, serveurs, centres de données et réseau spécialisé. La dépense est entraînée par la pression concurrentielle : chaque joueur majeur croit que sécuriser la capacité de calcul maintenant est la seule façon d’éviter de perdre le marché IA face aux rivaux qui le font. Ralentir les dépenses risque de céder la position sur un marché qui récompense l’échelle.
Qu’est-ce que « la question comptable de 176 milliards » ?
Les hyperscalers amortissent les GPU sur cinq à six ans, mais les analystes dont Michael Burry argumentent que la vie économique réelle des GPU de frontière est plus proche de deux ou trois ans. L’analyse de Dave Friedman quantifie l’écart à environ 176 milliards d’amortissement sous-estimé entre 2026 et 2028. Si les estimations de vie plus courte sont correctes, le profit déclaré est surestimé et les besoins continus de capex sont sous-estimés — ce qui signifie que les hyperscalers devront continuer à dépenser agressivement pour rester à jour.
Comment les entreprises devraient-elles se protéger de la volatilité des prix cloud IA ?
Trois tactiques : négocier des clauses explicites de refresh et de changement de prix au lieu de supposer un pricing fixe pluriannuel ; privilégier la consommation basée sur l’usage aux engagements de matériel dédié (laissez le fournisseur absorber le risque d’obsolescence) ; et modéliser votre économie IA par token en assumant des baisses de prix significatives dans les 12–18 mois à mesure que le silicium de prochaine génération arrive en ligne. Le lock-in aujourd’hui aux prix d’aujourd’hui est le pire résultat sur une courbe de coûts qui déflate rapidement.
Sources et lectures complémentaires
- Les dépenses tech IA approchent 700 milliards en 2026 — CNBC
- Capex IA 2026 : le sprint de 690 Md$ d’infrastructure — Futurum Group
- Le capex hyperscaler atteint 600 Md$ en 2026 — Introl
- La question comptable de 176 milliards au cœur du boom IA — Dave Friedman
- Les « vies utiles » des puces IA créent-elles des bénéfices inutiles ? — Level-Headed Investing
- Pourquoi la vie utile des GPU est la variable la plus mal comprise — Stanley Laman
- Perspectives 2026 : pourquoi les hyperscalers ne peuvent pas ralentir les dépenses — Invezz
- Course aux armements IA : comment la poussée de capital reconfigure l’investissement — Morningstar











