ما أعلنته Google فعلياً في Next ’26
في Google Cloud Next 2026 بلاس فيغاس يوم 22 أبريل، نشر فريق الشبكات في Google التفاصيل التقنية لـ Virgo Network — وهو شبكة ضخمة جديدة مصممة خصيصاً لتدريب واستدلال الذكاء الاصطناعي على مقياس هايبرسكيل. ترتكز الإعلان على ثلاثة أرقام: 134,000 TPU مرتبطة في شبكة واحدة، وأكثر من مليون TPU عبر مواقع متعددة مجمعة في عنقود واحد، وما يصل إلى 47 بيتابت في الثانية من عرض النطاق ثنائي القسم غير المسدود.
البنية عبارة عن طوبولوجيا مسطحة ذات طبقتين غير مسدودة مبنية على مفاتيح ذات راديكس عالي مع تصميم متعدد الأبعاد ومجالات تحكم مستقلة. مقارنة بالجيل السابق، يقدم Virgo 4 أضعاف عرض النطاق لكل مسرّع و40% انخفاضاً في زمن الانتقال غير المحمل لـ TPU. ويدعم سيليكون Ironwood (TPU 8t) من Google — القادر على 121 إكسافلوب في superpod واحد من 9,600 شريحة مع 2 بيتابايت من الذاكرة المشتركة — ومنصة Vera Rubin من NVIDIA، بما يصل إلى 80,000 GPU Rubin لكل مركز بيانات و960,000 GPU عبر مواقع متعددة.
للسياق: شبكة Virgo واحدة تربط اليوم شرائح أكثر مما كانت معظم السحابات العامة تشغّله لأعباء الذكاء الاصطناعي في كامل بصمتها قبل عامين. استعارة “الحرم الجامعي كحاسوب” التي استخدمتها Google عام 2023 استُبدلت بهدوء بـ “الكوكب كحاسوب”.
لماذا تهم الطوبولوجيا المسطحة ذات الطبقتين
تستخدم معظم شبكات مراكز البيانات الموروثة طوبولوجيات Clos أو fat-tree بثلاث طبقات أو أكثر. كل طبقة إضافية تضيف زمن انتقال، وتعقيد كابلات، ومجالات فشل. التصميم ذو الطبقتين غير المسدود في Virgo هو رهان هندسي متعمد — المفاتيح ذات الراديكس العالي، أي المفاتيح التي تحوي مئات المنافذ بعرض نطاق متساوٍ، تتيح لـ Google تسطيح التسلسل الهرمي دون التضحية بالنطاق.
العائد العملي لتدريب الذكاء الاصطناعي وحشي في بساطته. في التدريب المتزامن المتوازي للبيانات، تُقيَّد كل خطوة تدرّج بأبطأ ذيل في عملية all-reduce الجماعية. اختصر زمن انتقال الـ fabric بنسبة 40% فتختصر حاجز التدرج بنسبة 40%. اضرب ذلك في ملايين خطوات التدرج في تدريب نموذج حدودي وستوفّر أسابيع من الزمن الحقيقي وعشرات الملايين من الدولارات من ساعات المسرّعات الخاملة.
التصميم متعدد الأبعاد بمجالات تحكم مستقلة هو الرهان الثاني. بتقسيم الـ fabric إلى مستويات متوازية تفشل بشكل مستقل، تُقلّص Google نطاق الانفجار لأي عطل في مفتاح أو متحكم وحيد — استجابة مباشرة للدرس الذي تعلّمته بقية الصناعة من انقطاع Cloudflare في نوفمبر 2025 وحادثة us-east-1 لدى AWS في ديسمبر 2025: على المقياس الهايبرسكيل، نطاق الانفجار هو المقياس الأهم من الإنتاجية القصوى.
كيف يعمل “مليون TPU كعنقود واحد” فعلياً
تجميع مليون مسرّع عبر مراكز بيانات متعددة في عنقود تدريب منطقي واحد مشكلة لم يحلّها أحد علناً قبل 2026. عرض النطاق بين المواقع عادة أقل بـ 100 إلى 1000 مرة من عرض النطاق داخل الموقع، وزمن الانتقال أعلى بـ 10 إلى 100 مرة. التدريب الساذج متعدد المواقع ينهار إلى عبء اتصال زائد.
تجيب البنية ثلاثية الطبقات لدى Google على ذلك بفصل الاهتمامات. مجال scale-up يتولى الاتصال بين الشرائح داخل الـ pod عبر Inter-Chip Interconnect (ICI) بسرعة 19.2 Tb/s لـ TPU 8i. وشبكة scale-out للمسرّعات هي الطبقة الشرقية-الغربية المعتمدة على RDMA التي يستهدفها Virgo Network فعلياً — وهنا يقع معظم الاستثمار في عرض النطاق المخصص للذكاء الاصطناعي. وشبكة الواجهة الأمامية Jupiter تتولى حركة المرور الشمالية-الجنوبية للتخزين والدخول والاتصال بين المناطق.
تحسّن عرض النطاق بمقدار 4 أضعاف يتركّز في الطبقة الوسطى لأن هناك تقضي عمليات التدريب الجماعية الحديثة معظم وقتها. الإعلان المرافق عن Cloud Managed Lustre بسرعة 10 TB/s من عرض نطاق التخزين (قفزة 10 أضعاف خلال عام) يسدّ عنق الزجاجة من جانب التخزين كي لا تظل المسرّعات خاملة بانتظار shards.
إعلان
السقف التنافسي الذي أعيد ضبطه
أُفيد بأن عنقود Maia 100 من Microsoft على Azure قد توسّع إلى نحو 100,000 شريحة لكل منطقة بحلول أواخر 2025. تتسع UltraServers من AWS Trainium2 إلى 64 شريحة لكل عقدة وعناقيد بـ “عشرات الآلاف” لكل منطقة. تستهدف عناقيد Grand Teton من Meta 24,000 GPU. مقابل هذا الأساس، فإن 134,000 TPU في شبكة واحدة و1M+ عبر المواقع لدى Virgo يمثّلان نحو رتبة قدر متقدّمة على محور حجم العنقود.
أرقام Vera Rubin — 80,000 GPU لكل موقع، و960,000 عبر المواقع — تشير أيضاً إلى شيء أدق. تُموضع Google Virgo Network كبنية تحتية سحابية تشغّل سيليكون Google وسيليكون NVIDIA على المقياس نفسه. هذا مهم لأن قيد GPU في منتصف 2026 لم يعد إمدادات الرقاقة الخام (لحقت TSMC بالطلب) بل البنية التحتية للشبكات والطاقة التي تتيح الاستفادة الفعلية من الشرائح. الزبائن المربوطون بخارطة طريق NVIDIA لكنهم غير راضين عن شبكات سحابتهم الحالية يمتلكون الآن بديل Google ذا مصداقية.
التأثير من الدرجة الثالثة يقع على الطاقة والمياه. موقع بـ 960,000 GPU بمعدل استهلاك متوقع 1.5 إلى 2 كيلوواط لكل مسرّع لـ Vera Rubin يعني حملاً 1.4 إلى 1.9 جيجاواط — أكبر من إجمالي سحب الشبكة الكهربائية لعدة دول أفريقية متوسطة الحجم. اختيار الموقع وحقوق المياه ومواعيد الربط الكهربائي تقيّد اليوم انتشار Virgo فعلياً أكثر من السيليكون نفسه.
ماذا يعني هذا لمشتري السحابة في أفريقيا والشرق الأوسط
1. توقفوا عن مقارنة سحابات الذكاء الاصطناعي بسعر الـ GPU — قارنوا طوبولوجيا العنقود
لا تزال معظم طلبات العروض في الجزائر والمغرب ودول مجلس التعاون الخليجي وشرق أفريقيا تطلب “$/ساعة A100” أو “$/ساعة H100” كمقياس رئيسي. يجعل Virgo هذه المقارنة عديمة المعنى لأي عبء عمل يتجاوز بضعة آلاف شريحة. مهمة بـ 64 GPU ستعمل بنحو الكفاءة نفسها في أي مكان؛ مهمة بـ 16,000 GPU ستعمل بسرعة 30-50% أعلى على Virgo بفضل خفض زمن الانتقال؛ ومهمة بـ 100,000 GPU لن تعمل في مكان آخر إطلاقاً. أعيدوا كتابة بطاقة التقييم لتثقّل ثلاثة عناصر فوق السعر: أقصى حجم عنقود لمهمة واحدة، وعرض نطاق الـ fabric داخل الموقع، وقدرة التجميع بين المواقع. إن استبعدت استراتيجيتكم للسحابة السيادية Google، وثّقوا سقف الحجم الذي تقبلونه.
2. تفاوضوا على بنود “SLA الـ fabric”، وليس فقط على SLA التوافر
تغطّي اتفاقيات SLA السحابية المعيارية توافر الحوسبة والتخزين — لا تقول شيئاً عن زمن انتقال الـ fabric أو أحداث تدهور عرض النطاق. مع بنية بفئة Virgo، تدهور بنسبة 10% في عرض نطاق fabric شرق-غرب قد يحطّم إنتاجية التدريب بينما تبلّغ كل لوحات المعلومات أنها “متوفرة”. ادفعوا فريق حساباتكم لإدراج مقاييس على مستوى الـ fabric في SLA: زمن انتقال شرق-غرب p99، نسبة عرض النطاق ثنائي القسم المتاحة، زمن اكتشاف حوادث الـ fabric. تمتلك Google هذه الأرقام داخلياً؛ اطلبوا كشفها كأهداف SLO مرئية للعميل.
3. خططوا لتحوّل ضريبة الـ egress قبل توقيع اتفاقيات تدريب متعددة المواقع
التدريب متعدد المواقع عبر عنقود بمليون TPU يولّد حركة مرور هائلة بين المناطق. تسعير egress السحابي اليوم يفترض أنك تدرّب في منطقة وتقدّم الخدمة في أخرى — التدريب متعدد المواقع يعيد كتابة هذا الافتراض. تحقّقوا مع المزود مما إذا كانت حركة الـ fabric بين المواقع تُحتسب “egress” (مسعّرة لكل GB) أم “داخلية” (مجانية). العبء نفسه إن سُعّر egress مقابل داخلي قد يتفاوت بمقدار 100x في التكلفة الشهرية. احصلوا على الإجابة كتابياً قبل الالتزام ببنية تدريب متعددة المواقع، لأن الخط الفاصل بين “fabric” و”egress” يُرسم في الزمن الحقيقي عبر الهايبرسكيلر الثلاثة الكبار.
4. استخدموا Virgo كرافعة في مفاوضات تخصيص Vera Rubin مع شركاء NVIDIA
إن كانت قائمتكم القصيرة تتضمن مساراً قائماً على NVIDIA فقط (CoreWeave، Lambda، builds سيادية H200/Rubin)، فإن سعة 80,000 Rubin لكل موقع لدى Virgo رافعة. تخصيص Vera Rubin من NVIDIA في 2026-2027 سيكون ضيقاً؛ والأرقام التي أعلنتها Google تجبر كل مزوّد NVIDIA-only على إما المضاهاة وإما تفسير الفجوة. استخدموا هذا السقف المعلن علناً أرضية في مفاوضات التخصيص.
سؤال السيادة الذي يفرضه Virgo
تتصادم مقاربة “الكوكب كحاسوب” لـ Virgo مباشرة مع لوائح السحابة السيادية المنتشرة في أفريقيا والخليج وأوروبا. القانون 18-07 في الجزائر يفرض الاستضافة المحلية للبيانات الشخصية. المرسوم بقانون اتحادي رقم 45 لسنة 2021 في الإمارات يفرض قيوداً مماثلة. ويزيد قانون البيانات الأوروبي المرتقب من تجزئة تدفقات البيانات العابرة للحدود.
لا يقدّم عنقود متعدد المواقع بـ 1M TPU الأداء المُعلن إلا إذا تدفّقت البيانات والتدرّجات بحرية عبر المواقع. ما إن تُثبَّت بيانات العميل في ولاية قضائية واحدة، يتقلّص العنقود فعلياً إلى ما يقيم في مراكز بيانات تلك الولاية. بالنسبة للجزائر، حيث لا تمتلك Google منطقة محلية، يعني ذلك أن Virgo Network هو وظيفياً عرض 0 TPU لأي عبء يخضع للقانون 18-07. وينطبق الأمر نفسه على أي ولاية قضائية بدون منطقة Google AI.
هذا هو الدرس البنيوي: البنية التحتية للذكاء الاصطناعي الهايبرسكيل وقوانين سيادة البيانات في تصادم مباشر اليوم، وVirgo Network هو أوضح تعبير حتى الآن عما هو على المحك. سيواجه الزبائن في الولايات المنظَّمة خياراً بين التدريب على أكبر عنقود في العالم (وقبول كلفة سيادية) أو التدريب على عنقود محلي ممتثل أصغر برتبة قدر إلى رتبتين. لا توجد طريق وسطى يمكن للهندسة الشبكية أن تموّهها.
بالنسبة للمدراء التقنيين الجزائريين الذين يقيّمون تدريب النماذج الحدودية في 2026-2027، الحركة العملية هي فصل الأعباء حسب مستوى الحساسية: تبقى البيانات الشخصية المنظمة على منطقة محلية ممتثلة (Oracle، Microsoft السيادي، أو builds سحابة ATM Mobilis المستقبلية)، بينما يمكن لأبحاث ما قبل التدريب وغير الحساسة استخدام عنقود من فئة Virgo في الخارج. كلما هندسوا هذا التشعّب مبكراً في معمارية البيانات، قلّت كلفة الحفاظ عليه.
الأسئلة الشائعة
ما هو Virgo Network من Google ولماذا هو مهم؟
Virgo Network هو شبكة Google Cloud الجديدة بمقياس ضخم، أُعلن عنها في 22 أبريل 2026، تربط 134,000 TPU في شبكة واحدة غير مسدودة وأكثر من مليون TPU عبر مواقع متعددة في عنقود تدريب منطقي واحد. يقدّم 4 أضعاف عرض النطاق و40% انخفاضاً في زمن الانتقال مقارنة بالجيل السابق، ما يعيد تعريف الحجم الأقصى لأي مهمة تدريب ذكاء اصطناعي لدى أي مزوّد سحابي.
كيف يقارن Virgo Network بعناقيد AI لدى AWS وAzure وMeta؟
Virgo Network أكبر بنحو رتبة قدر من عناقيد AWS وAzure وMeta العامة الحالية على محور عدد الشرائح لكل شبكة. أُفيد بأن عناقيد AWS Trainium2 وAzure Maia تتوسّع إلى عشرات الآلاف من الشرائح لكل منطقة؛ ويستهدف Meta Grand Teton 24,000 GPU. تعيد 134,000 TPU لكل شبكة و1M+ عبر المواقع لدى Virgo ضبط مرجع حجم العنقود، خاصة لتدريب النماذج الحدودية فوق 100,000 شريحة.
هل تستطيع المؤسسات الجزائرية أو الأفريقية فعلياً استخدام Virgo Network؟
عملياً لا — لا تمتلك Google منطقة AI في الجزائر ولا في معظم أفريقيا، لذا لا يمكن معالجة أي بيانات يغطّيها مرسوم توطين البيانات في القانون 18-07 على Virgo. يمكن للمؤسسات استخدام Virgo للأبحاث غير الحساسة، أو تدريب النماذج مفتوحة المصدر، أو الأعباء التي لا تخضع بياناتها لقيود إقامة. الاستراتيجية الواقعية لـ 2026 هي مقاربة متدرّجة: البيانات المنظَّمة على سحابة سيادية محلية، والأعباء غير المنظمة على Virgo في الخارج.
المصادر والقراءات الإضافية
- Introducing Virgo Network: Megascale Data Center Fabric — Google Cloud Blog
- AI Infrastructure at Next ’26 — Google Cloud Blog
- Google Cloud Next ’26 Recap — Google Blog
- Google Cloud Unveils Virgo Network to Power Next-Generation AI Data Centers — TechAfricaNews
- Google Cloud Next ’26: Gemini Enterprise Agent Platform Leads AI-Centric News — Virtualization Review















