Le 24 mars 2026, Arm Holdings a fait quelque chose qu’il n’avait jamais fait en 35 ans d’existence : livrer son propre silicium de production. Le CPU AGI d’Arm — un processeur de centre de données à 136 cœurs construit sur le procédé 3nm de TSMC — marque la transformation de l’entreprise d’un simple fournisseur de licences de propriété intellectuelle en concurrent direct sur le marché des puces serveur. Avec Meta comme partenaire de développement principal et une liste de clients de lancement incluant OpenAI, Cloudflare et Cerebras, le CPU AGI représente le défi le plus ambitieux d’Arm contre l’architecture x86 qui domine les centres de données depuis des décennies.
Pourquoi Arm a construit sa propre puce
Pendant des décennies, Arm a licencié ses designs de CPU à d’autres entreprises — Qualcomm, Apple, Amazon, Nvidia — tout en restant hors du marché du silicium. Ce modèle générait des redevances régulières mais laissait des milliards de valeur sur la table alors que les hyperscalers construisaient leurs propres puces basées sur Arm pour les charges de travail cloud. AWS Graviton, Google Axion, Microsoft Cobalt et Nvidia Grace ont tous prouvé que les architectures Arm pouvaient rivaliser avec x86 dans les centres de données. Mais chacune de ces puces était conçue par le client, pas par Arm.
Le CPU AGI change cette équation. Le PDG d’Arm, Rene Haas, a projeté que le business des puces seul pourrait générer 15 milliards de dollars de revenus annuels d’ici 2031, contribuant à un objectif plus large de 25 milliards de revenus totaux. C’est un pari important : l’action d’Arm a bondi de 16 % à l’annonce, reflétant la confiance des investisseurs dans la viabilité du pivot de la licence vers le silicium.
Le timing n’est pas accidentel. La croissance explosive des charges de travail d’IA agentique — des systèmes autonomes qui orchestrent de multiples modèles d’IA, gèrent les appels d’outils et maintiennent une mémoire persistante — stimule la demande de CPU capables de gérer la couche d’orchestration aux côtés des accélérateurs GPU. Arm voit ce goulot d’étranglement côté CPU comme son point d’entrée.
Ce que le matériel offre
Le CPU AGI est construit autour de jusqu’à 136 cœurs Neoverse V3 répartis sur deux dies, fonctionnant à 3,2 GHz all-core et 3,7 GHz en boost, dans une enveloppe thermique de 300 watts. La bande passante mémoire est substantielle : 12 canaux de DDR5 jusqu’à 8800 MT/s délivrent plus de 800 Go/s de débit agrégé, soit environ 6 Go/s par cœur, avec une latence cible inférieure à 100 ns.
La densité est là où les chiffres attirent l’attention. Un rack standard refroidi par air de 36 kW contient 30 lames 1U à socket unique, totalisant 8 160 cœurs par rack. Passez au refroidissement liquide et ce chiffre grimpe au-delà de 45 000 cœurs par rack. Arm revendique que cela se traduit par plus de deux fois les performances par rack comparé aux CPU x86 actuels, permettant jusqu’à 10 milliards de dollars d’économies CAPEX par gigawatt de capacité de centre de données IA.
Ces revendications sont des projections fournisseur et nécessiteront une validation indépendante une fois les benchmarks tiers disponibles. Mais l’architecture est clairement optimisée pour le schéma de charge de travail spécifique de l’IA agentique : nombre élevé de threads, bande passante mémoire massive et efficacité énergétique — les mêmes forces qui ont rendu Arm dominant dans le mobile et de plus en plus compétitif dans le cloud.
Publicité
Meta comme partenaire principal
Meta n’est pas qu’un simple client de lancement — l’entreprise a co-développé le CPU AGI avec Arm. La puce est conçue pour fonctionner aux côtés du silicium MTIA (Meta Training and Inference Accelerator) personnalisé de Meta, gérant l’orchestration côté CPU qui coordonne les clusters d’accélérateurs à travers l’infrastructure de Meta à l’échelle du gigawatt.
Pour Meta, la motivation est le contrôle de sa pile IA du silicium au logiciel. L’entreprise construit des puces personnalisées depuis 2023 et considère le CPU AGI comme la pièce manquante : un processeur hôte dédié qui élimine le surcoût des CPU x86 généralistes dans les charges de travail lourdes en IA. Meta et Arm se sont engagés à co-développer plusieurs générations futures de CPU optimisés pour l’IA, suggérant qu’il s’agit d’un pari architectural à long terme plutôt qu’une décision d’approvisionnement ponctuelle.
Les autres partenaires de lancement couvrent l’écosystème IA. OpenAI et Cerebras apportent les charges de travail d’inférence et d’entraînement. Cloudflare et F5 représentent l’infrastructure edge et réseau. SAP et SK Telecom signalent l’adoption entreprise et télécom. Les OEM serveurs ASRock Rack, Lenovo et Supermicro ont déjà des systèmes commerciaux disponibles à la commande, avec une disponibilité plus large attendue au second semestre 2026.
La riposte x86 est déjà en cours
Intel et AMD ne restent pas immobiles. L’EPYC Venice d’AMD, livré au second semestre 2026, apporte jusqu’à 256 cœurs Zen 6 sur le procédé 2nm de TSMC avec une amélioration revendiquée de 70 % en performance et efficacité générationnelle. Le Clearwater Forest d’Intel embarque 288 E-cores sur son nœud de process 18A, ciblant les charges de travail optimisées en densité. Le CPU Vera de Nvidia — avec 88 cœurs Olympus personnalisés — cible le même cas d’usage d’orchestration agentique que poursuit Arm.
Les parts de marché montrent que x86 domine encore mais la tendance favorise les challengers. Début 2025, les processeurs basés sur Arm représentaient environ 15-20 % des livraisons de CPU serveur, contre une part négligeable il y a cinq ans. AMD détenait environ 27 % du marché serveur x86 au T1 2025, laissant à Intel le reste — toujours la majorité, mais en déclin constant. Les analystes projettent qu’Arm pourrait atteindre 20-23 % du marché CPU des centres de données fin 2026, bien que l’adoption réelle ait été en retrait par rapport à certaines prévisions antérieures — notamment l’objectif aspirationnel d’Arm de 50 % de part d’ici 2025.
Pour compliquer les choses, les plus grands licenciés d’Arm — Nvidia, Amazon, Google, Microsoft — sont à la fois clients et concurrents potentiels. AWS Graviton et Google Axion offrent déjà des instances basées sur Arm ciblant les mêmes charges de travail. Le marché principal du CPU AGI pourrait être l’échelon en dessous des hyperscalers : entreprises, fournisseurs cloud de taille moyenne et startups IA qui n’ont pas les ressources pour concevoir du silicium personnalisé.
Ce que cela signifie pour le marché des centres de données
L’importance du CPU AGI va au-delà d’une seule puce. Il représente un changement structurel dans la façon dont l’industrie des semi-conducteurs aborde l’infrastructure IA. Trois tendances convergent :
La renaissance du CPU. À mesure que les systèmes d’IA agentique deviennent plus complexes, la couche d’orchestration CPU est devenue un véritable goulot d’étranglement. Chaque token généré, chaque appel d’outil dispatché, chaque récupération mémoire passe par le CPU hôte. Arm parie que des CPU dédiés pour cette charge de travail représentent une opportunité de 15 milliards de dollars.
Les limites du modèle de licence. Le modèle de redevances traditionnel d’Arm capture environ 1 à 3 dollars par puce en frais de licence. Vendre du silicium complet capture la marge totale de la puce. Si le CPU AGI réussit, il pourrait fondamentalement modifier le profil de revenus d’Arm, passant d’une activité de PI à faible marge à une entreprise de produits à forte marge.
L’efficacité énergétique comme arme compétitive. Alors que la consommation énergétique des centres de données IA devient un enjeu politique et environnemental mondial, l’avantage de puissance par cœur d’Arm — hérité de son ADN mobile — lui confère un avantage structurel. Le TDP de 300 W pour 136 cœurs se compare favorablement aux pièces x86 qui consomment souvent 350-400 W pour moins de cœurs.
Le silicium de production est disponible à la commande dès maintenant, avec une montée en volume au second semestre 2026 et un impact matériel sur les revenus attendu à partir de 2028. Le succès du pari d’Arm dépendra de la validation des performances en conditions réelles, de la vitesse d’adoption de l’écosystème logiciel et de la capacité de l’entreprise à naviguer dans les dynamiques complexes de la concurrence avec ses propres licenciés.
Une chose est claire : le monopole x86 dans les centres de données IA est terminé. La question n’est plus de savoir si Arm a sa place dans la salle serveur — mais quelle part de marché il revendiquera.
Questions fréquentes
Comment le CPU AGI d’Arm se compare-t-il aux processeurs Kunpeng de Huawei déjà déployés en Algérie ?
Les deux sont des architectures basées sur Arm, mais ils ciblent des positionnements de marché différents. Les processeurs Kunpeng de Huawei utilisent des designs de cœurs Arm plus anciens optimisés pour l’informatique d’entreprise généraliste et sont fournis avec l’écosystème logiciel de Huawei. Le CPU AGI d’Arm utilise les derniers cœurs Neoverse V3 en 3nm, ciblant les charges de travail de centres de données IA avec 136 cœurs et plus de 800 Go/s de bande passante mémoire. Pour l’Algérie, la différence pratique est que Kunpeng est disponible maintenant via les partenariats Huawei existants, tandis que le CPU AGI représente une option future avec des performances supérieures mais sans chaîne d’approvisionnement locale établie.
Le CPU AGI d’Arm fonctionnera-t-il avec les GPU NVIDIA ?
Oui. Le CPU AGI est explicitement conçu pour servir de processeur hôte aux côtés des accélérateurs GPU dans les charges de travail IA. NVIDIA est listé comme partenaire de l’écosystème de lancement, et la puce cible la couche d’orchestration CPU qui coordonne les clusters GPU dans les systèmes d’IA agentique. La combinaison de CPU Arm et GPU NVIDIA est déjà courante dans les déploiements hyperscaler (NVIDIA Grace + Hopper), et le CPU AGI étend ce modèle à un marché plus large.
Que signifie la fin du monopole x86 pour la compatibilité des logiciels serveur ?
La plupart des logiciels serveur modernes — distributions Linux, environnements de conteneurs, bases de données, frameworks IA — supportent déjà l’architecture Arm grâce à des années de travail impulsé par l’adoption d’AWS Graviton et Apple Silicon. Cependant, certains logiciels d’entreprise, applications héritées et chaînes d’outils spécialisées peuvent encore nécessiter x86. L’impact pratique est que les organisations doivent vérifier la compatibilité Arm de leur pile logicielle avant de s’engager dans une infrastructure basée sur Arm. Pour les nouveaux déploiements comme les centres de données algériens à venir, cette vérification devrait faire partie du processus d’approvisionnement.
Sources et lectures complémentaires
- Announcing Arm AGI CPU: The Silicon Foundation for the Agentic AI Cloud Era — Arm Newsroom
- Arm Moves Beyond IP with AGI CPU Silicon — Tom’s Hardware
- Arm Flexes with New Data Center CPU for AI Inference — HPCwire
- Arm’s $15 Billion CPU Opportunity Hinges on Agentic Data Center Design — Futurum Group
- Arm Jumps 16% as Company Expects Revenue Windfall from New Chip — CNBC
- Arm Launches AGI CPU for Agentic AI Workloads — EE Times
















