L’accord : 3,5 gigawatts de capacité TPU
Anthropic a signé un partenariat élargi avec Google et Broadcom pour environ 3,5 gigawatts de capacité de calcul TPU de nouvelle génération, devant entrer en service à partir de 2027. Broadcom s’est engagé à concevoir et fournir les futures générations des TPU de Google jusqu’en 2031, offrant à Anthropic une feuille de route matérielle pluriannuelle.
Cette nouvelle capacité s’ajoute au 1 GW déjà en cours de déploiement en 2026 dans le cadre d’un accord Google Cloud annoncé en octobre 2025. Au total, Anthropic se positionne avec 4,5 GW de capacité TPU dédiée — suffisamment pour alimenter une petite ville et dépassant largement ce que toute entreprise d’IA a publiquement engagé auparavant.
L’échelle est vertigineuse. Un seul gigawatt peut alimenter environ 750 000 foyers. La capacité totale engagée par Anthropic reflète la croissance explosive de la demande en calcul alors que les modèles d’IA frontière nécessitent des clusters d’entraînement et des flottes d’inférence toujours plus grands.
Contexte financier : 30 milliards de dollars de revenus annualisés
Ce partenariat intervient dans un contexte d’accélération commerciale rapide pour Anthropic. Le taux de revenus annualisés de l’entreprise a dépassé 30 milliards de dollars — contre environ 9 milliards fin 2025. Cette croissance multipliée par trois en moins d’un an reflète la demande croissante pour Claude dans les secteurs entreprise, gouvernemental et développeur.
Les analystes de Mizuho estiment que Broadcom enregistrerait 21 milliards de dollars de revenus IA provenant d’Anthropic en 2026 et 42 milliards en 2027, faisant d’Anthropic l’un des plus gros clients de Broadcom. L’accord souligne comment les entreprises d’IA deviennent des moteurs majeurs du chiffre d’affaires des semi-conducteurs.
Stratégie multi-puces : TPU, Trainium et GPU
Un élément distinctif de l’approche infrastructure d’Anthropic est sa stratégie multi-plateforme. Claude s’entraîne et fonctionne sur une gamme de matériel IA — puces AWS Trainium, Google TPU et GPU NVIDIA — permettant d’attribuer les charges de travail au matériel le plus adapté.
Cette diversification offre plusieurs avantages stratégiques. Premièrement, elle réduit la dépendance envers un fournisseur unique, notamment NVIDIA, dont l’approvisionnement en GPU reste contraint. Deuxièmement, elle permet l’optimisation des coûts en routant différents types de charges vers le matériel le plus efficace. Troisièmement, elle fournit un levier de négociation avec les trois écosystèmes matériels.
Pour l’industrie IA au sens large, l’approche d’Anthropic pourrait devenir le modèle. La capacité d’arbitrer entre architectures de puces devient un avantage compétitif plutôt qu’une curiosité technique.
Publicité
Course aux armements infrastructurels : qui construit à grande échelle
Anthropic n’est pas seul dans la quête d’infrastructures à l’échelle du gigawatt. Microsoft et OpenAI ont annoncé le projet Stargate, visant 5 GW de capacité de centres de données. Google étend massivement ses clusters TPU dans plusieurs régions. Amazon Web Services continue d’élargir son programme de puces Trainium.
Ce qui distingue l’accord Anthropic-Broadcom est la relation directe entre une entreprise de modèles IA et un concepteur de puces, contournant le modèle traditionnel d’intermédiation par les fournisseurs cloud. Cette intégration verticale reflète les tendances d’autres industries où les acheteurs dominants sécurisent des positions en amont de la chaîne d’approvisionnement.
Le pipeline mondial de construction de centres de données dépasse désormais 500 milliards de dollars d’investissement engagé jusqu’en 2030, les charges de travail IA générant la majorité des nouvelles capacités. La disponibilité d’énergie — et non l’approvisionnement en puces — est devenue la contrainte principale.
Implications énergétiques et durabilité
L’échelle énergétique pure soulève des questions de durabilité. Avec 4,5 GW de capacité engagée, les opérations d’Anthropic seules consommeraient plus d’électricité que de nombreux petits pays. La demande totale en énergie de l’industrie IA devrait atteindre 100 GW d’ici 2030, soit à peu près la consommation totale d’électricité du Japon.
Cela stimule l’investissement dans l’énergie nucléaire, le stockage d’énergie longue durée et les contrats d’achat d’énergie renouvelable spécifiquement pour les charges de travail IA. L’intersection entre infrastructure IA et politique énergétique devient l’un des défis déterminants de gouvernance technologique de la décennie.
Ce que cela signifie pour le marché
L’accord Anthropic-Google-Broadcom remodèle la dynamique du marché. Pour Broadcom, il valide la stratégie du silicium personnalisé comme alternative viable au modèle GPU marchand de NVIDIA. Pour Google, il démontre que son écosystème TPU peut attirer et retenir les charges de travail IA les plus intensives en calcul. Pour Anthropic, il fournit le socle matériel pour concurrencer OpenAI et Google DeepMind sur le développement de modèles frontière.
Questions fréquentes
Pourquoi Anthropic s’associe-t-elle à Broadcom plutôt que d’acheter des GPU NVIDIA ?
Anthropic utilise une stratégie multi-puces incluant les GPU NVIDIA, AWS Trainium et les Google TPU. Le partenariat avec Broadcom couvre spécifiquement les Google TPU sur mesure, qui offrent des avantages en termes d’efficacité des coûts et de disponibilité par rapport aux GPU NVIDIA à approvisionnement contraint. En diversifiant les architectures de puces, Anthropic réduit sa dépendance envers les fournisseurs et optimise les coûts.
Que représentent concrètement 3,5 gigawatts de capacité de calcul ?
Un gigawatt peut alimenter environ 750 000 foyers. L’engagement de 3,5 GW d’Anthropic à partir de 2027 — plus 1 GW déjà prévu en 2026 — représente assez d’énergie pour environ 3,4 millions de foyers. Cette énergie alimentera des millions de puces TPU exécutant les charges d’entraînement et d’inférence de Claude.
Comment cet accord affecte-t-il les coûts du cloud pour les entreprises ?
L’échelle massive de cet accord devrait à terme aider à modérer les coûts du calcul IA. Cependant, la tendance plus large de l’investissement en infrastructure à l’échelle du gigawatt suggère que la demande en calcul IA continue de dépasser l’offre, maintenant des prix élevés pour l’accès aux modèles frontière à court terme.
Sources et lectures complémentaires
- Anthropic Expands Partnership with Google and Broadcom — Anthropic
- Broadcom to Supply Anthropic with 3.5 Gigawatts of Google TPU Capacity from 2027 — Tom’s Hardware
- Anthropic Ups Compute Deal with Google and Broadcom Amid Skyrocketing Demand — TechCrunch
- Anthropic’s Gigawatt-Scale TPU Deal with Broadcom Creates a Structural Advantage — Futurum Group
- Anthropic Reveals $30bn Run Rate, Plan to Use New Google TPU — The Register





