Ce que Google a réellement annoncé à Next ’26
Lors de Google Cloud Next 2026 à Las Vegas le 22 avril, l’équipe networking de Google a publié les détails techniques de Virgo Network — une nouvelle fabric mégascale conçue spécifiquement pour l’entraînement et l’inférence IA à l’échelle hyperscale. Trois chiffres ancrent l’annonce : 134 000 TPU reliés dans une seule fabric, plus d’1 million de TPU sur plusieurs sites stitchés en un seul cluster, et jusqu’à 47 pétabits par seconde de bande passante bisectionnelle non bloquante.
L’architecture est une topologie plate à deux couches non bloquante construite sur des switches à haut radix avec un design multi-planaire et des domaines de contrôle indépendants. Comparé à la génération précédente, Virgo offre 4x la bande passante par accélérateur et une réduction de 40 % de la latence non chargée pour les TPU. Il prend en charge à la fois le silicium Ironwood (TPU 8t) de Google — capable de 121 exaflops dans un superpod unique de 9 600 puces avec 2 pétaoctets de mémoire partagée — et la plateforme Vera Rubin de NVIDIA, avec jusqu’à 80 000 GPU Rubin par data center et 960 000 GPU sur plusieurs sites.
Pour situer l’échelle : une seule fabric Virgo relie aujourd’hui plus de puces que la plupart des clouds publics n’en exploitaient pour l’IA dans toute leur empreinte il y a deux ans. La métaphore « campus comme ordinateur » utilisée par Google en 2023 a été silencieusement remplacée par « globe comme ordinateur ».
Pourquoi une topologie plate à deux couches change la donne
La plupart des réseaux data center hérités utilisent des topologies Clos ou fat-tree à trois couches ou plus. Chaque couche supplémentaire ajoute de la latence, de la complexité de câblage et des domaines de défaillance. Le design à deux couches non bloquant de Virgo est un pari d’ingénierie délibéré : les switches à haut radix — des switches avec des centaines de ports à bande passante égale — permettent à Google d’aplanir la hiérarchie sans sacrifier l’échelle.
Le bénéfice pratique pour l’entraînement IA est brutalement simple. Dans l’entraînement synchrone data-parallel, chaque étape de gradient est limitée par la queue la plus lente du collectif all-reduce. Réduisez la latence fabric de 40 % et vous réduisez la barrière de gradient de 40 %. Multipliez sur des millions d’étapes de gradient dans un entraînement de modèle frontière et vous économisez des semaines de temps mural et des dizaines de millions de dollars d’heures d’accélérateur inactives.
Le design multi-planaire avec domaines de contrôle indépendants est le second pari. En divisant la fabric en plans parallèles qui défaillent indépendamment, Google réduit le rayon d’impact d’une seule panne de switch ou de contrôleur — une réponse directe à la leçon que le reste de l’industrie a tirée de la panne Cloudflare de novembre 2025 et de l’incident us-east-1 d’AWS de décembre 2025 : à l’échelle hyperscale, le rayon d’impact compte plus que le débit de pointe.
Comment « 1 million de TPU comme un seul cluster » fonctionne réellement
Stitcher un million d’accélérateurs sur plusieurs data centers en un seul cluster d’entraînement logique est un problème que personne n’avait publiquement résolu avant 2026. La bande passante entre sites est typiquement 100 à 1000 fois inférieure à celle intra-site, et la latence est 10 à 100 fois supérieure. L’entraînement multi-site naïf s’effondre en surcharge de communication.
L’architecture à trois couches de Google répond à cela en séparant les préoccupations. Le domaine scale-up gère la communication intra-pod puce-à-puce via l’Inter-Chip Interconnect (ICI) à 19,2 Tb/s pour le TPU 8i. La fabric scale-out d’accélérateurs est la couche est-ouest basée sur RDMA que Virgo Network cible réellement — c’est là que vit l’essentiel de l’investissement bande passante spécifique à l’IA. Le réseau front-end Jupiter gère le trafic nord-sud pour le stockage, l’ingress, et la connectivité inter-zones.
L’amélioration 4x de bande passante est concentrée sur la couche du milieu parce que c’est là que les collectifs d’entraînement modernes passent l’essentiel de leur temps. L’annonce parallèle de Cloud Managed Lustre à 10 To/s de bande passante de stockage (une augmentation de 10x en un an) ferme le goulot d’étranglement côté stockage afin que les accélérateurs ne restent pas inactifs en attente de shards.
Publicité
La barre concurrentielle ainsi redéfinie
Le cluster Maia 100 de Microsoft sur Azure aurait scalé à environ 100 000 puces par région fin 2025. Les UltraServers AWS Trainium2 scalent à 64 puces par nœud et à des clusters de « dizaines de milliers » par région. Les clusters Grand Teton de Meta visent 24 000 GPU. Face à cette base, les 134 000 TPU de Virgo dans une seule fabric et son 1M+ entre sites représentent environ un ordre de grandeur d’avance sur l’axe taille de cluster.
Les chiffres Vera Rubin — 80 000 GPU par site, 960 000 entre sites — signalent aussi quelque chose de plus subtil. Google positionne Virgo Network comme une infrastructure cloud qui exploite à la même échelle le silicium Google et le silicium NVIDIA. C’est important parce que la contrainte GPU à mi-2026 n’est plus l’approvisionnement en silicium brut (TSMC a rattrapé) mais l’infrastructure réseau et électrique qui permet d’utiliser réellement les puces. Les clients verrouillés sur les feuilles de route NVIDIA mais mécontents du networking de leur cloud actuel disposent désormais d’une alternative Google crédible.
L’effet de troisième ordre concerne l’énergie et l’eau. Un site de 960 000 GPU à la consommation prévue de 1,5 à 2 kW par accélérateur de Vera Rubin implique 1,4 à 1,9 GW de charge IT — supérieure à la consommation totale du réseau électrique de plusieurs pays africains de taille moyenne. La sélection de site, les droits d’eau, et les délais d’interconnexion réseau contraignent désormais le déploiement réel de Virgo plus que le silicium ne le fait.
Ce que cela signifie pour les acheteurs cloud en Afrique et au Moyen-Orient
1. Cessez de comparer les clouds IA au prix par GPU — comparez la topologie de cluster
La plupart des appels d’offres en Algérie, au Maroc, dans le CCG, et en Afrique de l’Est demandent encore le « $/heure A100 » ou « $/heure H100 » comme métrique principale. Virgo rend cette comparaison sans signification pour toute charge au-delà de quelques milliers de puces. Une tâche de 64 GPU s’exécutera à peu près de la même façon partout ; une tâche de 16 000 GPU s’exécutera 30 à 50 % plus vite sur Virgo grâce à la réduction de latence ; et une tâche de 100 000 GPU ne s’exécutera nulle part ailleurs. Réécrivez votre grille pour pondérer trois éléments avant le prix : taille de cluster maximale par tâche, bande passante fabric intra-site, et capacité de clustering inter-sites. Si votre stratégie de cloud souverain exclut Google, documentez le plafond de taille que vous acceptez.
2. Négociez des termes de « SLA fabric », pas seulement des SLA de disponibilité
Les SLA cloud standard couvrent la disponibilité du compute et du stockage — ils ne disent rien sur la latence fabric ou les événements de dégradation de bande passante. Avec une infrastructure de classe Virgo, une dégradation de 10 % de la bande passante sur la fabric est-ouest peut anéantir le débit d’entraînement pendant que tous les tableaux de bord rapportent encore « disponible ». Poussez votre équipe commerciale pour des métriques fabric dans le SLA : latence est-ouest p99, pourcentage de bande passante bisectionnelle disponible, temps de détection des incidents fabric. Google possède ces chiffres en interne ; demandez à les exposer comme SLO visibles client.
3. Planifiez le décalage de taxe d’egress avant de signer des accords d’entraînement multi-sites
L’entraînement multi-site sur un cluster d’1M de TPU génère un trafic inter-régions colossal. La tarification d’egress cloud actuelle suppose que vous entraînez dans une région et servez dans une autre — l’entraînement multi-site réécrit cette hypothèse. Vérifiez auprès de votre fournisseur si le trafic fabric inter-sites compte comme « egress » (facturé au Go) ou « interne » (gratuit). La même charge facturée comme egress vs. interne peut varier d’un facteur 100x en coût mensuel. Obtenez la réponse par écrit avant de vous engager sur une architecture d’entraînement multi-site, parce que la ligne entre « fabric » et « egress » est en train d’être tracée en temps réel chez les trois hyperscalers.
4. Utilisez Virgo comme levier dans les négociations d’allocation Vera Rubin avec les partenaires NVIDIA
Si votre liste comprend une voie NVIDIA-only (CoreWeave, Lambda, builds H200/Rubin de cloud souverain), la capacité de 80 000 Rubin par site de Virgo est un levier. L’allocation Vera Rubin de NVIDIA en 2026-2027 sera serrée ; les chiffres annoncés par Google forcent chaque fournisseur NVIDIA-only à soit s’aligner soit expliquer l’écart. Utilisez ce plafond divulgué publiquement comme plancher dans vos négociations d’allocation.
La question de souveraineté que Virgo impose
Le cadrage « globe comme ordinateur » de Virgo entre en collision frontale avec les régulations de cloud souverain qui se répandent en Afrique, dans le Golfe et en Europe. La Loi 18-07 de l’Algérie impose l’hébergement local des données personnelles. Le décret-loi fédéral 45 de 2021 des Émirats arabes unis impose des restrictions similaires. Le Data Act européen en attente fragmente davantage les flux de données transfrontaliers.
Un cluster multi-site d’1M de TPU ne délivre la performance annoncée que si les données et les gradients peuvent circuler librement entre sites. Dès lors que les données d’un client sont épinglées à une seule juridiction, le cluster se réduit effectivement à ce qui réside dans les data centers de cette juridiction. Pour l’Algérie, où Google n’a pas de région domestique, cela signifie que Virgo Network est fonctionnellement une offre 0 TPU pour toute charge soumise à la Loi 18-07. Le même constat s’applique à toute juridiction sans région IA Google.
C’est la leçon structurelle : l’infrastructure IA hyperscale et le droit de souveraineté des données sont désormais en collision directe, et Virgo Network en est l’expression la plus claire. Les clients dans des juridictions régulées feront face à un choix entre s’entraîner sur le plus grand cluster du monde (et accepter une perte de souveraineté) ou s’entraîner sur un cluster domestique conforme qui est un à deux ordres de grandeur plus petit. Il n’y a pas de voie médiane que l’ingénierie réseau puisse maquiller.
Pour les directeurs techniques algériens évaluant l’entraînement de modèles frontière en 2026-2027, le mouvement pratique est de séparer les charges par niveau de sensibilité : les données personnelles régulées restent sur une région domestique conforme (Oracle, Microsoft souverain, ou futurs builds cloud ATM Mobilis), tandis que la recherche non sensible et les charges de pré-entraînement peuvent utiliser un cluster de classe Virgo à l’étranger. Plus tôt cette bifurcation est intégrée dans l’architecture de données, moins son maintien coûte cher.
Questions Fréquemment Posées
Qu’est-ce que le Virgo Network de Google et pourquoi est-ce important ?
Virgo Network est la nouvelle fabric mégascale de Google Cloud, annoncée le 22 avril 2026, qui relie 134 000 TPU dans une seule fabric non bloquante et plus d’1 million de TPU sur plusieurs sites en un seul cluster d’entraînement logique. Il offre 4x la bande passante et 40 % de latence en moins que la génération précédente, redéfinissant la taille maximale d’une seule tâche d’entraînement IA chez tout fournisseur cloud.
Comment Virgo Network se compare-t-il aux clusters IA d’AWS, Azure, et Meta ?
Virgo Network est environ un ordre de grandeur plus grand que les clusters AWS, Azure et Meta publics actuels sur l’axe nombre de puces par fabric. Les clusters AWS Trainium2 et Azure Maia scaleraient à des dizaines de milliers de puces par région ; Meta Grand Teton vise 24 000 GPU. Les 134 000 TPU par fabric et le 1M+ entre sites de Virgo redéfinissent la barre de taille de cluster, particulièrement pour l’entraînement de modèles frontière au-delà de 100 000 puces.
Les entreprises algériennes ou africaines peuvent-elles réellement utiliser Virgo Network ?
Pratiquement non — Google n’a pas de région IA en Algérie ni dans la plupart de l’Afrique, donc toute donnée couverte par le mandat de localisation des données de la Loi 18-07 ne peut être traitée sur Virgo. Les entreprises peuvent utiliser Virgo pour la recherche non sensible, l’entraînement de modèles open-source, ou les charges où les données n’ont pas de restriction de résidence. La stratégie réaliste pour 2026 est une approche par niveaux : données régulées sur cloud souverain domestique, charges non régulées sur Virgo à l’étranger.
Sources et lectures complémentaires
- Introducing Virgo Network: Megascale Data Center Fabric — Google Cloud Blog
- AI Infrastructure at Next ’26 — Google Cloud Blog
- Google Cloud Next ’26 Recap — Google Blog
- Google Cloud Unveils Virgo Network to Power Next-Generation AI Data Centers — TechAfricaNews
- Google Cloud Next ’26: Gemini Enterprise Agent Platform Leads AI-Centric News — Virtualization Review















