En bref : NVIDIA a enregistré 130,5 milliards de dollars de chiffre d’affaires pour l’exercice fiscal 2025, les puces IA représentant 88 % de ce total. Mais la véritable puissance de l’entreprise ne réside pas dans son matériel — c’est l’écosystème logiciel CUDA qui crée des coûts de migration prohibitifs pour l’ensemble de l’industrie de l’IA. Cet article explique comment NVIDIA a construit l’économie du GPU, pourquoi des concurrents comme AMD, Google et Amazon gagnent du terrain, et ce que le passage de l’entraînement à l’inférence signifie pour la domination de NVIDIA.
La machine à 130 milliards de dollars
NVIDIA a enregistré 130,5 milliards de dollars de chiffre d’affaires pour l’exercice fiscal 2025 — un chiffre qui aurait semblé absurde trois ans plus tôt, quand l’entreprise réalisait 27 milliards. Les revenus des centres de données, quasi exclusivement issus de la vente de puces IA, ont représenté 115,2 milliards de dollars de ce total. La capitalisation boursière de NVIDIA a dépassé les 5 000 milliards de dollars fin 2025 et se situe début 2026 autour de 4 400 milliards, la plaçant parmi les entreprises les plus valorisées au monde aux côtés d’Apple et Microsoft.
Ce ne sont pas les chiffres d’un fabricant de puces. Ce sont ceux d’une entreprise qui s’est positionnée comme l’opérateur du péage de toute la course aux infrastructures IA. Chaque grand laboratoire d’IA, chaque hyperscaler, chaque entreprise déployant l’apprentissage automatique à grande échelle paie NVIDIA pour le privilège. Comprendre comment ce monopole a été construit — et ce qui pourrait le briser — est essentiel pour quiconque prend des décisions en matière d’infrastructure IA.
Le fossé CUDA
La domination de NVIDIA est souvent attribuée à son matériel GPU. Cette explication est incomplète. L’avantage le plus profond est CUDA, la plateforme propriétaire de calcul parallèle que NVIDIA a lancée en 2006.
CUDA n’est pas un produit que NVIDIA vend directement. C’est le substrat invisible sur lequel l’ensemble de l’écosystème logiciel de l’IA a été construit. PyTorch, TensorFlow, JAX — chaque framework majeur est optimisé pour CUDA en priorité, et tout le reste en second. Les pipelines d’entraînement chez OpenAI, Anthropic, Google DeepMind et Meta fonctionnent tous sur CUDA. L’investissement collectif dans du code optimisé pour CUDA — des milliards d’heures d’ingénierie sur près de deux décennies — représente des coûts de migration qu’aucune fiche technique ne peut surmonter.
La plateforme ROCm d’AMD est l’alternative la plus sérieuse. Elle est open source, techniquement capable et soutenue par des ressources d’ingénierie substantielles. Mais passer de CUDA à ROCm nécessite de réécrire le code des noyaux, revalider la précision numérique, déboguer les régressions de performance et reformer les équipes d’exploitation. Pour un laboratoire d’IA qui a passé des mois à ajuster une session d’entraînement sur CUDA, la perspective de répéter cet effort sur ROCm — avec moins de support communautaire et moins de bibliothèques pré-optimisées — est difficile à accepter, même quand le matériel d’AMD est compétitif en prix.
Le framework oneAPI d’Intel a tenté une alternative agnostique au matériel mais n’a gagné qu’une traction minimale dans l’IA. Le fossé CUDA n’est pas une question de supériorité technique — c’est une question de gravité d’écosystème. Les développeurs construisent sur CUDA parce que d’autres développeurs ont construit sur CUDA, et chaque année de compatibilité accumulée rend la migration plus difficile.
Des puces à la plateforme
L’évolution stratégique de NVIDIA au cours des trois dernières années est claire : l’entreprise se transforme d’un fournisseur de puces en une plateforme IA complète. L’économie du GPU ne se résume plus à la vente de silicium.
DGX Cloud fournit un accès clé en main à des clusters de GPU via des partenariats avec Oracle, Microsoft Azure, Google Cloud et Lambda. Plutôt que de concurrencer les hyperscalers, NVIDIA s’intègre dans leurs clouds.
NVIDIA Inference Microservices (NIM) packagent des modèles IA pré-optimisés sous forme de microservices conteneurisés qui fonctionnent sur les GPU NVIDIA avec une configuration minimale. Pour les entreprises, NIM raccourcit le chemin entre la sélection d’un modèle et la mise en production — mais approfondit la dépendance à la pile NVIDIA.
AI Enterprise, facturé 1 000 dollars par GPU et par an, regroupe NIM, des outils de développement et le support entreprise — convertissant les ventes de matériel en revenus logiciels récurrents, à l’image de ce que Microsoft a réalisé avec Azure et Office 365.
La stratégie de plateforme signifie que NVIDIA n’a pas besoin de remporter chaque génération matérielle de manière décisive. Même si un concurrent produit une puce supérieure, l’écosystème logiciel de NVIDIA crée suffisamment de friction pour que la plupart des clients restent. C’est le même schéma qui a maintenu Intel dominant dans le x86 pendant des décennies. NVIDIA l’a exécuté avec une plus grande discipline.
Publicité
L’architecture Blackwell
Le matériel de NVIDIA reste redoutable. Le GB200 NVL72 — un rack refroidi par liquide contenant 72 GPU Blackwell connectés par NVLink — délivre 30 fois les performances d’inférence et 4 fois les performances d’entraînement du système H100 de la génération précédente pour les charges de travail de grands modèles de langage. Chaque GPU B200 fournit 20 pétaflops de calcul FP4 avec 192 Go de mémoire HBM3e.
Le Blackwell Ultra (B300), dont la livraison a commencé début 2026, a porté la mémoire à 288 Go de HBM3e. La feuille de route de NVIDIA maintient des renouvellements annuels : Vera Rubin au second semestre 2026 avec de la mémoire HBM4, Rubin Ultra en 2027, et Feynman au-delà. Cette cadence oblige les concurrents à viser une cible mobile tout en poussant les clients vers des mises à niveau continuelles.
La relation de NVIDIA avec TSMC dans la chaîne d’approvisionnement sous-tend ce rythme. NVIDIA est le plus grand client de TSMC pour la fabrication de puces IA avancées, ayant sécurisé plus de 60 % de l’allocation de packaging avancé CoWoS de TSMC pour 2026 — un avantage manufacturier qu’aucun concurrent ne peut facilement reproduire.
Les concurrents
La domination de NVIDIA est réelle, mais le paysage des menaces est plus large qu’il y a deux ans.
Le MI300X d’AMD a obtenu une adoption significative, avec 192 Go de HBM3 et 5,3 To/s de bande passante, excellant dans les charges d’inférence limitées par la mémoire. Microsoft Azure, Oracle Cloud et plusieurs fournisseurs de cloud GPU le déploient à grande échelle. La série MI350 d’AMD revendique une inférence jusqu’à 35 fois plus rapide que le MI300X, et le MI400 avec le système Helios à l’échelle du rack vise 2026 comme concurrent direct du NVL72.
Le TPU v7 (Ironwood) de Google délivre 4 614 TFLOPS FP8 par puce, s’étendant à 42,5 ExaFLOPS dans des pods de 9 216 puces. L’accord d’Anthropic pour des centaines de milliers de puces Trillium (TPU v6e) — montant vers un million d’ici 2027 et valant des dizaines de milliards de dollars — signale que NVIDIA n’est pas la seule voie viable vers l’IA de pointe.
Les puces Trainium d’Amazon éliminent entièrement la prime NVIDIA. Trainium2 offre un rapport prix-performance 30 à 40 % supérieur aux instances EC2 basées sur GPU. Trainium3, sur un procédé 3nm, délivre 4,4 fois plus de puissance de calcul et 4 fois plus d’efficacité énergétique. Amazon contrôle la puce, le cloud et la relation client de bout en bout.
Cerebras construit des puces à l’échelle du wafer avec 4 000 milliards de transistors, a signé un accord de plus de 10 milliards de dollars pour approvisionner OpenAI, et a démontré une inférence 18 fois plus rapide que les solutions basées sur GPU alimentant l’API Llama de Meta. L’entreprise vise une introduction en bourse au deuxième trimestre 2026 pour une valorisation de 23 milliards de dollars.
Chaque concurrent attaque une facette différente : AMD sur les spécifications, Google et Amazon sur l’intégration verticale, Cerebras sur la nouveauté architecturale. Les guerres du cloud accélèrent cette fragmentation, chaque hyperscaler construisant du silicium propriétaire pour différencier sa plateforme IA. Aucun n’a détrôné NVIDIA. Mais collectivement, ils érodent l’hypothèse selon laquelle les GPU NVIDIA sont la seule option.
L’avenir de l’économie GPU
Trois forces façonneront le prochain chapitre de l’économie GPU de NVIDIA.
Premièrement, l’inférence dépasse l’entraînement en tant que charge de calcul dominante. L’entraînement est un coût ponctuel ; servir des modèles à des millions d’utilisateurs est continu et s’amplifie avec l’adoption. Ce basculement favorise le matériel spécialisé pour l’inférence et l’efficacité algorithmique plutôt que la puissance brute des GPU, ouvrant potentiellement un espace pour des architectures qui rivalisent sur le coût par jeton plutôt que sur le débit maximal d’entraînement.
Deuxièmement, la dépendance à la plateforme s’approfondit. Chaque entreprise adoptant NIM, AI Enterprise ou DGX Cloud s’ancre davantage dans l’écosystème de NVIDIA. La stratégie à long terme consiste à faire du matériel GPU un composant banalisé d’une plateforme définie par logiciel où les coûts de migration se mesurent en dépendances organisationnelles, et non en spécifications de puces.
Troisièmement, le risque géopolitique s’accroît. La guerre des infrastructures IA a fait de NVIDIA un acteur géopolitique. Les contrôles à l’exportation ont coûté des milliards en revenus chinois. La surveillance antitrust s’intensifie. L’accord avec Groq — un arrangement de 20 milliards de dollars portant sur des licences et des talents intégrant la technologie LPU optimisée pour l’inférence dans l’architecture Vera Rubin — pourrait faire face à des obstacles réglementaires.
La position de NVIDIA aujourd’hui ressemble à celle d’Intel au début des années 2000 : un leader de marché écrasant avec un fossé logiciel profond, des renouvellements architecturaux annuels et des coûts de migration prohibitifs. La domination d’Intel a duré encore 15 ans avant que le mobile et le cloud ne l’érodent. Le fossé de NVIDIA pourrait s’avérer plus durable — ou faire face à une disruption venue d’une direction que personne n’anticipe.
Ce qui est clair, c’est que l’économie GPU ne se résume plus aux GPU. Il s’agit de savoir qui contrôle la pile — du silicium au logiciel en passant par le cloud — qui fait fonctionner l’IA.
Questions Fréquemment Posées
Qu’est-ce que nvidia and the gpu economy ?
Cet article couvre les aspects essentiels de ce sujet, en examinant les tendances actuelles, les acteurs clés et les implications pratiques pour les professionnels et les organisations en 2026.
Pourquoi nvidia and the gpu economy est-il important ?
Ce sujet est important car il a un impact direct sur la façon dont les organisations planifient leur stratégie technologique, allouent leurs ressources et se positionnent dans un paysage en évolution rapide.
Quels sont les points clés à retenir de cet article ?
L’article analyse les mécanismes clés, les cadres de référence et les exemples concrets qui permettent de comprendre le fonctionnement de ce domaine, en s’appuyant sur des données actuelles et des études de cas.
Sources et lectures complémentaires
- NVIDIA FY2025 Financial Results — NVIDIA Newsroom
- NVIDIA Blackwell Architecture Technical Overview — NVIDIA Developer Blog
- AMD Instinct MI350 Series GPUs — AMD
- Google Ironwood TPU v7 — Google Cloud Blog
- Amazon Trainium AI Accelerators — AWS
- NVIDIA Roadmap: Rubin GPUs 2026, Feynman Beyond — Tom’s Hardware
- Anthropic to Expand Use of Google Cloud TPUs — Google Cloud
- NVIDIA Acquires Groq for $20 Billion — CNBC


















