Le fossé de 115 milliards de dollars de Nvidia
La domination de Nvidia sur le marché des puces IA constitue l’une des positions monopolistiques les plus remarquables de l’histoire technologique. Le chiffre d’affaires de la division data center de l’entreprise — porté presque exclusivement par les ventes de GPU pour l’entraînement et l’inférence IA — a atteint 115,2 milliards de dollars au cours de l’exercice fiscal 2025, soit 88 % du chiffre d’affaires total de 130,5 milliards de dollars. Ce montant représentait une hausse par rapport aux quelque 47,5 milliards de dollars de l’exercice précédent et à peine 15 milliards deux ans auparavant. La capitalisation boursière de Nvidia a brièvement dépassé les 5 000 milliards de dollars en octobre 2025, et début 2026, elle s’établissait à environ 4 600 milliards de dollars, faisant d’elle l’entreprise la plus valorisée au monde — devant Apple, Alphabet et Microsoft. Son GPU H100 est devenu le matériel emblématique de l’ère de l’IA, avec un prix unitaire compris entre 25 000 et 40 000 dollars selon la configuration, bien que les tarifs de location cloud aient depuis chuté de 8 $/heure en 2024 à moins de 3 $/heure grâce à l’expansion de l’offre.
L’avantage de Nvidia ne repose pas uniquement sur le matériel mais aussi sur le logiciel. CUDA, la plateforme propriétaire de calcul parallèle de Nvidia lancée en 2006, est devenue la norme de facto pour les charges de travail IA. Tous les principaux frameworks d’IA — PyTorch, TensorFlow, JAX — sont optimisés pour CUDA. Chaque pipeline d’entraînement d’un chercheur en IA suppose CUDA. Cet écosystème logiciel crée des coûts de migration qui sont sans doute plus durables que toute avance matérielle : même si un concurrent produisait une puce aux spécifications supérieures, le coût de réécriture et de revalidation du code d’entraînement IA dissuaderait la migration. Nvidia détient une part estimée de 86 à 90 % du marché des accélérateurs IA fin 2025.
L’architecture Blackwell de Nvidia, incarnée par les puces B200 et GB200 lancées en 2024-2025, a encore repoussé les limites de performance. Le GB200 NVL72, un rack serveur refroidi par liquide contenant 72 GPU Blackwell connectés par NVLink, offre 30 fois les performances d’inférence et 4 fois les performances d’entraînement du système H100 de génération précédente pour les grands modèles de langage, tout en délivrant 25 fois plus de performances à puissance équivalente par rapport à l’infrastructure H100 refroidie par air. La feuille de route de Nvidia maintient des rafraîchissements architecturaux annuels : Blackwell Ultra (B300) a été livré au T4 2025 avec 288 Go de HBM3e par GPU, Vera Rubin est prévu pour le S2 2026 avec de la mémoire HBM4 et une amélioration de calcul de 3,3x par rapport à Blackwell Ultra, Rubin Ultra suit au S2 2027, et une architecture ultérieure nommée Feynman figure sur la feuille de route. Ce rythme d’amélioration reste difficile à suivre pour les concurrents.
AMD, Intel et la stratégie des GPU challengers
AMD s’est positionnée comme la principale alternative à Nvidia pour l’entraînement et l’inférence IA. Son GPU MI300X, lancé fin 2023, offrait des spécifications compétitives : 192 Go de mémoire HBM3 (contre 80 Go sur le H100), 5,3 To/s de bande passante mémoire (contre ~3,35 To/s) et de solides performances d’inférence — des benchmarks indépendants ont montré un avantage de latence de 40 % par rapport au H100 sur des charges de travail comme LLaMA2-70B. Les principaux fournisseurs cloud — Microsoft Azure, Oracle Cloud et d’autres — ont adopté le MI300X, offrant à AMD des clients hyperscalers crédibles.
AMD a ensuite progressé rapidement à travers des générations successives. Le MI325X (T4 2024) a augmenté la mémoire à 256 Go de HBM3e. La série MI350, lancée mi-2025 sur l’architecture CDNA de 4e génération, représente un bond majeur : le MI355X offre 288 Go de HBM3e à 8 To/s de bande passante et revendique jusqu’à 35 fois plus de débit d’inférence par rapport au MI300X. AMD a présenté sa série MI400 pour 2026, basée sur l’architecture CDNA « Next », aux côtés du design rack « Helios » qui unifie les CPU AMD EPYC, les GPU MI400 et les NIC IA Pensando en systèmes intégrés supportant jusqu’à 72 GPU — une réponse directe à l’approche rack NVL72 de Nvidia.
Le défi persistant d’AMD est la maturité logicielle. Sa plateforme ROCm (Radeon Open Compute) est le concurrent de CUDA, mais elle a historiquement accusé du retard en termes de stabilité, de support de bibliothèques et de documentation pour les développeurs. Les praticiens de l’IA rapportent que le passage de CUDA à ROCm nécessite des modifications de code non négligeables et du débogage, et que toutes les opérations ne sont pas également optimisées. AMD a massivement investi pour combler cet écart, recrutant des ingénieurs clés et contribuant aux frameworks open source, mais l’avantage de l’écosystème de développeurs reste le fossé le plus solide de Nvidia.
Intel, autrefois l’entreprise de puces dominante, a connu des difficultés avec les accélérateurs IA. Son Gaudi 3, lancé en 2024 via l’acquisition de Habana Labs, offrait un rapport performance/prix compétitif — Intel revendiquait 70 % de débit d’inférence par dollar supplémentaire par rapport au H100 sur certains modèles — mais a capturé moins de 1 % du marché des accélérateurs IA discrets. En janvier 2025, Intel a annulé Falcon Shores, le successeur Gaudi de nouvelle génération prévu, choisissant de l’utiliser comme puce de test interne. La gamme de produits Gaudi a été officiellement retirée. Intel pivote désormais vers Jaguar Shores, un système IA à l’échelle du rack intégrant calcul, réseau et mémoire, attendu en 2026. La stratégie de fonderie d’Intel — sa Fab 52 en Arizona a commencé la fabrication en volume sur le procédé Intel 18A (1,8 nm) en 2025 — pourrait s’avérer plus importante stratégiquement que ses propres conceptions de puces IA.
Advertisement
La révolution du silicium sur mesure
La menace à long terme la plus significative pour Nvidia ne provient peut-être pas d’un autre fabricant de GPU, mais de la tendance aux puces IA sur mesure conçues par les hyperscalers eux-mêmes. Les Tensor Processing Units (TPU) de Google ont progressé rapidement, couvrant désormais sept générations. La 6e génération Trillium (TPU v6e), disponible en 2025, a offert une amélioration de 4,7x du pic de calcul par rapport au TPU v5e. Mais le véritable point d’inflexion est venu avec Ironwood (TPU v7), annoncé en avril 2025 — le premier TPU Google explicitement conçu pour l’inférence à grande échelle. Chaque puce Ironwood délivre 4 614 TFLOPS FP8 avec 192 Go de mémoire HBM3e et 7,4 To/s de bande passante, et les pods montent à 9 216 puces délivrant 42,5 ExaFLOPS. Google affirme qu’Ironwood surpasse le GB300 de Nvidia sur les principaux benchmarks d’entraînement et d’inférence. Signe de l’attraction croissante de l’écosystème TPU, Anthropic a signé le plus important contrat TPU de l’histoire de Google fin 2025 — des centaines de milliers de TPU Trillium en 2026, avec une montée en charge vers un million d’ici 2027.
Amazon a suivi une trajectoire similaire. Sa puce Trainium2, conçue par l’équipe Annapurna Labs (acquise en 2015 pour 350 M$), est spécialement conçue pour l’entraînement IA à grande échelle. Trainium2 délivre 4 fois les performances du Trainium de première génération, avec 1,3 PFLOPS de FP8 dense par puce et un rapport performance/prix 30 à 40 % meilleur que les instances EC2 basées sur GPU. Amazon a encore accéléré lors du re:Invent 2025 avec Trainium3, fabriqué sur un noeud de procédé 3 nm, offrant 4,4x plus de calcul, 4x plus d’efficacité énergétique et 4x plus de bande passante mémoire que Trainium2. Chaque puce Trainium3 délivre 2,52 PFLOPS FP8 avec 144 Go de HBM3e, et les Trn3 UltraServers montent à 144 puces. Amazon peut proposer ces puces à des prix agressifs car elle contrôle la puce, la plateforme cloud et la relation client — il n’y a pas de marge intermédiaire.
Microsoft est entré dans la course au silicium sur mesure avec Maia 200, présenté en janvier 2026 — un accélérateur d’inférence dédié sur le procédé 3 nm de TSMC. Microsoft affirme que Maia 200 est le silicium propriétaire le plus performant de tous les hyperscalers, avec 3 fois les performances FP4 du Trainium3 d’Amazon et des performances FP8 supérieures au TPU v7 de Google. Avec 216 Go de HBM3e à 7 To/s de bande passante et 272 Mo de SRAM sur puce, Maia 200 est désormais déployé dans la région data center US Central de Microsoft et intégré à Azure.
Le marché des ASIC sur mesure soutenant ces efforts hyperscalers a explosé. Broadcom conçoit des puces IA sur mesure pour Google (y compris le silicium TPU), Meta et d’autres — son chiffre d’affaires lié à l’IA a atteint environ 20 milliards de dollars au cours de l’exercice fiscal 2025, en hausse de 65 % par rapport aux 12,2 milliards de l’exercice précédent, avec des projections dépassant 50 milliards pour l’exercice fiscal 2026. Marvell conçoit du silicium sur mesure pour Amazon (Trainium), Microsoft (Maia) et d’autres hyperscalers, avec un chiffre d’affaires lié à l’IA qui a dépassé 1,5 milliard de dollars au cours de l’exercice fiscal 2025. Ces puces sacrifient la polyvalence au profit de l’efficacité : un ASIC sur mesure optimisé pour une charge de travail unique peut offrir 3 fois ou plus l’efficacité d’un GPU généraliste, ce qui est extrêmement précieux à l’échelle des hyperscalers.
Parmi les startups, le paysage a radicalement évolué. Cerebras, qui fabrique des puces à l’échelle de la tranche de silicium (wafer-scale) (une tranche de silicium entière comme processeur unique avec 4 000 milliards de transistors — 19 fois plus que le B200 de Nvidia), a signé un contrat de plus de 10 milliards de dollars pour fournir à OpenAI du matériel IA. Meta s’est associé à Cerebras pour l’API Llama, revendiquant une inférence 18 fois plus rapide que les solutions basées sur GPU. Cerebras a levé plus de 2 milliards de dollars en 2025-2026 et vise une introduction en bourse au T2 2026 pour une valorisation de 23 milliards de dollars. Groq, qui a conçu des puces optimisées pour l’inférence utilisant une architecture LPU déterministe ayant atteint 300 à 750 tokens par seconde (environ 10 fois le débit GPU), a été acquis par Nvidia en décembre 2025 pour environ 20 milliards de dollars — la plus importante acquisition de Nvidia. La technologie LPU de Groq est intégrée à l’architecture Vera Rubin de Nvidia. SambaNova continue de proposer son architecture dataflow reconfigurable via la puce SN40L, remportant des contrats de cloud IA souverain en Australie, en Europe et au Royaume-Uni.
Chaînes d’approvisionnement, contrôles à l’exportation et géopolitique
Le marché des puces IA n’opère pas dans un contexte purement commercial. Les contrôles à l’exportation américains, imposés pour la première fois en octobre 2022 et progressivement renforcés en 2023 et 2024, restreignent la vente de puces IA avancées à la Chine. Les H100, A100 de Nvidia et leurs dérivés ne peuvent pas être exportés vers des clients chinois. Nvidia a conçu des puces bridées — les H800, A800, puis le H20 — spécifiquement pour le marché chinois, mais le paysage réglementaire est devenu volatile. La « règle de diffusion de l’IA » de l’administration Biden de janvier 2025 a établi des seuils de performance mondiaux bloquant les GPU phares tout en créant une « zone verte » pour les modèles moins puissants comme le H20. L’administration Trump a ensuite interdit les exportations de H20 en avril 2025, a fait marche arrière en juillet en approuvant les licences pour le H20 et l’AMD MI308, et en décembre 2025 a annoncé des projets d’approbation de ventes du H200 de Nvidia à la Chine — la puce IA la plus puissante jamais autorisée à l’exportation. Nvidia a vendu environ un million de puces H20 à des clients chinois en 2024 avant que les restrictions ne s’intensifient.
La réponse de la Chine a été d’accélérer le développement domestique de puces. L’Ascend 910B de Huawei, grossièrement comparable au A100 de Nvidia, a été largement adopté par les entreprises d’IA chinoises. Le plus récent Ascend 910C — une conception bi-chiplet fusionnant deux 910B — approche mais n’égale pas les performances du H100, délivrant environ 800 TFLOPS FP16 contre environ 2 000 TFLOPS pour le H100, bien qu’il offre plus de mémoire (128 Go HBM3 contre 80 Go). Huawei prévoit d’expédier plus de 800 000 unités de 910B/910C combinées et développe l’Atlas 950 SuperPod pour 2026, reliant 8 192 puces Ascend pour délivrer 8 ExaFLOPS de performance FP8. SMIC, le principal fondeur chinois, fabrique des puces en 7 nm en utilisant la lithographie DUV (pour contourner les restrictions d’exportation EUV d’ASML) et prévoit de doubler sa capacité 7 nm en 2026. SMIC développe des capacités 5 nm pour 2026, bien que les coûts devraient être 50 % supérieurs au procédé équivalent de TSMC et que les rendements initiaux pourraient avoisiner 33 %. SMIC reste en retard de deux à trois générations sur les procédés de pointe de TSMC.
La concentration de la chaîne d’approvisionnement est en soi un risque. TSMC à Taïwan fabrique pratiquement toutes les puces IA les plus avancées au monde. Une perturbation des opérations de TSMC — qu’elle soit due à une catastrophe naturelle, un conflit géopolitique ou des contraintes de capacité — stopperait l’approvisionnement mondial en puces IA. Cette concentration a stimulé les investissements dans des alternatives de fabrication : le complexe de TSMC en Arizona comprend désormais trois usines (4 nm opérationnel, 3 nm prévu 2026-2027, 2 nm/1,6 nm ciblé pour 2029), la Fab 52 d’Intel est opérationnelle sur son procédé 18A avec 7,86 milliards de dollars de financement du CHIPS Act, et Samsung a reçu 4,75 milliards de dollars pour étendre ses opérations au Texas. Le CHIPS and Science Act, avec un financement total de 52,7 milliards de dollars, a catalysé plus de 630 milliards de dollars d’investissements privés dans les semi-conducteurs à travers 140 projets dans 28 États américains depuis 2020. Pour l’industrie de l’IA, la résilience de la chaîne d’approvisionnement en semi-conducteurs est devenue une préoccupation stratégique au niveau des conseils d’administration.
Advertisement
🧭 Radar de Décision (Prisme Algérien)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — L’Algérie est consommatrice de puces, non productrice ; comprendre le paysage de l’offre est essentiel pour la planification de l’infrastructure IA et l’approvisionnement cloud |
| Infrastructure prête ? | Non — L’Algérie n’a pas de fabrication de semi-conducteurs ; l’accès cloud aux puces IA est le canal pertinent |
| Compétences disponibles ? | Non — La conception de puces et l’ingénierie des semi-conducteurs nécessitent une formation spécialisée peu disponible en Algérie |
| Calendrier d’action | Veille uniquement — Le paysage concurrentiel évolue annuellement ; l’Algérie devrait suivre les prix et la disponibilité de l’accès cloud aux GPU |
| Parties prenantes clés | Fournisseurs cloud opérant en Algérie, opérateurs de data centers algériens, institutions de recherche en IA, Ministère de l’Économie numérique |
| Type de décision | Éducatif |
En bref : La compétition qui s’intensifie entre Nvidia, AMD, Google, Amazon et Microsoft fait baisser les coûts du calcul IA, rendant l’infrastructure IA basée sur le cloud de plus en plus abordable pour les organisations algériennes. L’Algérie devrait suivre ce marché pour prendre des décisions d’approvisionnement cloud éclairées, tandis que la dimension géopolitique des contrôles à l’exportation sino-américains et du risque de concentration sur TSMC ajoute une incertitude de chaîne d’approvisionnement qui mérite d’être surveillée.
Sources et lectures complémentaires
- Nvidia FY2025 Financial Results — Nvidia Newsroom
- Nvidia Blackwell Architecture and GB200 NVL72 — Nvidia Developer Blog
- Nvidia Rubin GPU Roadmap — Tom’s Hardware
- AMD Instinct MI350 Series GPUs — AMD
- Intel Cancels Falcon Shores GPU — TechCrunch
- Google Ironwood TPU v7 — Google Cloud Blog
- Amazon Trainium AI Accelerators — AWS
- Microsoft Maia 200 Inference Accelerator — Microsoft Blog
- Broadcom Q4 FY2025 Earnings — Futurum Group
- Huawei Ascend 910C vs Nvidia H100 — IEEE Spectrum
- US AI Chip Export Controls — Bureau of Industry and Security
- CHIPS and Science Act — Wikipedia
Advertisement