ما الذي أعلنته Google فعليًا في Next ’26
أنتج Google Cloud Next 2026 إحدى أكثر الإعلانات تفصيلًا من الناحية التقنية في تاريخ مؤتمرات الحوسبة السحابية الحديثة. تشمل الإفصاحات طبقات الحوسبة والشبكات والتخزين والتطبيقات. يُركّز هذا المقال على مستوى البنية التحتية حيث ستتراكم القرارات المعمارية لسنوات.
TPU 8t (التدريب): تضم شريحة التدريب من الجيل الثامن 9,600 شريحة في وحدة superpod واحدة تُقدّم 121 exaflops من القدرة الحوسبية و2 petabytes من الذاكرة المشتركة. تضاعفت بنطاق ترددي الاتصال البيني بين الشرائح (ICI) مقارنةً بالجيل السابق. على نطاق المجموعة، تربط شبكة Virgo 134,000 شريحة TPU 8t في مركز بيانات واحد ويمكن توسيعها لتشمل أكثر من مليون شريحة عبر منشآت متعددة.
TPU 8i (الاستدلال): تحمل النسخة المُحسَّنة للاستدلال 384 ميغابايت من ذاكرة SRAM على الشريحة (ثلاثة أضعاف الجيل السابق)، و288 غيغابايت من ذاكرة عالية النطاق الترددي (HBM)، و19.2 تيرابت في الثانية من بنطاق ترددي ICI (مضاعف). يُقلّص محرّك تسريع التجمعات (CAE) زمن الاستجابة على الشريحة بما يصل إلى 5 مرات. تُعلن Google عن تحسّن 80% في الأداء لكل دولار لأعباء عمل الاستدلال مقارنةً بالجيل السابق.
بنية شبكة Virgo: الخاصية المميّزة لـVirgo هي تصميم النسيج المنهار (collapsed fabric) الذي يُلغي «ضريبة التوسع» — تدهور زمن الاستجابة والنطاق الترددي الذي يحدث عادةً مع نمو مجموعات GPU أو TPU. تُقدّم Virgo 4 أضعاف نطاق ترددي جيل الشبكة السابق مع الحفاظ على خصائص أداء ثابتة عبر نسيج 134,000 شريحة بالكامل داخل مركز بيانات واحد.
Google Cloud Managed Lustre: يُحتمَل أن يكون إعلان التخزين هو الأقل تقديرًا من بين ما أُعلن في Next ’26. يُقدّم Managed Lustre الآن 10 تيرابايت في الثانية من النطاق الترددي — تحسّن بمقدار 10 أضعاف على أساس سنوي، و20 مرة أسرع من المنافس الأقرب وفق ما تُعلنه Google. الطاقة الاستيعابية: 80 petabytes. لأعباء عمل تدريب الذكاء الاصطناعي، يكون إنتاجية التخزين في الغالب القيد الحاسم.
الانعكاسات على مستوى التطبيقات: شهدت GKE تحسينًا بمقدار 4 أضعاف في وقت بدء تشغيل العقد وتقليصًا يصل إلى 80% في وقت بدء تشغيل الحاويات. انخفضت زمن استجابة بوابة الاستدلال Inference Gateway بنسبة 70% للوقت حتى أول رمز (TTFT) دون ضبط يدوي.
إعلان
ما يجب على مهندسي السحابة المؤسسيين فعله بهذه المعلومات
1. إعادة تسعير خارطة طريق أعباء عمل التدريب المؤسسي في مقابل اقتصاديات TPU 8t
سيُضيّق تحسّن التكلفة بنسبة 80% في استدلال TPU 8i تكاليف التدريب والاستدلال بالذكاء الاصطناعي المؤسسي بطرق لم تُقدَّر في معظم ميزانيات السحابة لعام 2025. إذا أجّلت مؤسستك ضبط النماذج الكبيرة أو نشر خطوط أنابيب RAG لأن تكلفة الحوسبة كانت باهظة على النطاق الحالي، أعد تسعير تلك الأحمال في مقابل أسعار استدلال TPU 8i — لا في مقابل اقتصاديات الجيل السابق.
2. مقارنة بنية التخزين لديك بمعيار 10 تيرابايت/ث لـManaged Lustre
معظم خطوط أنابيب الذكاء الاصطناعي المؤسسي مقيّدة بالتخزين قبل أن تكون مقيّدة بالحوسبة. إذا كانت مؤسستك تُشغّل حاليًا أعباء عمل التدريب على التخزين الكائني السحابي القياسي (إنتاجية نموذجية 10-50 غيغابايت في الثانية)، فإن وجود Managed Lustre بسعة 10 تيرابايت في الثانية يُغيّر نقاش البنية المعمارية. ليس إشارةً للترحيل الفوري — يحمل Managed Lustre تسعيرًا مميّزًا — لكنه إشارة لقياس استخدام إنتاجية التخزين الفعلي خلال تشغيلات التدريب.
3. تقييم النسيج المنهار لـVirgo بوصفه قرارًا متعدد السنوات
النسيج المنهار لـVirgo متمايز معماريًا عن طوبولوجيا التبديل المتعدد الطبقات القياسية، ولا يمكن تكرار خصائص أدائه على نطاق 134,000 شريحة باستخدام الشبكات الاعتيادية. إذا التزمت مؤسستك بأعباء عمل تدريب على النطاق الذي تتحقق فيه ميزة نطاق ترددي Virgo — عادةً ما يتجاوز 1,000 شريحة للتدريب الموزّع — فأنت تتخذ التزامًا معماريًا متعدد السنوات بتصميم شبكة Google Cloud الخاص. قيّم ذلك في مقابل تكلفة إمكانية النقل لبناء خطوط أنابيب تدريب مكافئة على AWS Trainium2 أو مجموعات Azure NDH100v5.
4. دمج تحسينات وقت بدء تشغيل حاويات GKE في نمذجة تكلفة الاستدلال
يُحدث التقليص البالغ 80% في وقت بدء تشغيل حاويات GKE وتسريع بدء تشغيل العقد بمقدار 4 أضعاف تأثيرًا ماليًا محددًا: يُقلّصان تكلفة الحوسبة الخاملة خلال فترات التوسع إلى الصفر لأعباء عمل الاستدلال. نمذج التأثير المالي لأداء بدء تشغيل GKE الجديد في مقابل الحد الأدنى الحالي لعدد العقد في مجموعة الاستدلال لديك.
الدرس الهيكلي: بنية تحتية الحوسبة السحابية الكبرى كسباق تسلّح في عصر التدريب
تمثّل إعلانا TPU 8t وشبكة Virgo نمطًا متسقًا لدى كبار مزودي الحوسبة السحابية الثلاثة منذ 2023: لم يعد الاستثمار في بنية تحتية تدريب الذكاء الاصطناعي مُحرَّكًا بإشارات الطلب التجاري، بل بالتموضع الاستراتيجي للجيل النموذجي القادم.
عند 121 exaflops لكل superpod ومليون شريحة في كل مجموعة، لا تبني Google بنية تحتية مُحجَّمة للطلب المؤسسي الحالي. أعباء عمل الذكاء الاصطناعي المؤسسي على نطاق واسع تستهلك مئات إلى آلاف الشرائح، لا ملايين. نطاق المليون شريحة مُحجَّم لتطوير النماذج الحديّة: الجيل التالي من Gemini والنماذج التي ستخلفه.
ما يعنيه هذا لمهندسي المؤسسات: ستكون إمكانات superpod الخاص بـTPU 8t متاحة لعملاء المؤسسات عبر بنية تحتية مشتركة متعددة المستأجرين بأسعار تنافسية، ليس لأن Google تبيع superpods للمؤسسات، بل لأن Google ستستخدم superpods لتدريب الجيل التالي من النماذج التي يصل إليها عملاء المؤسسات عبر واجهة برمجة التطبيقات. يتدفق الاستثمار في البنية التحتية للأعلى؛ ويتدفق الفائدة المؤسسية للأسفل من خلال جودة نموذج محسّنة وتكاليف استدلال أقل لكل رمز.
الأسئلة الشائعة
كيف يختلف شبكة Virgo عن شبكة مجموعة GPU التقليدية؟
تستخدم مجموعات GPU التقليدية تبديلًا هرميًا: تتصل وحدات GPU الفردية بمفتاح رأس الرف، الذي يتصل بمفتاح تجميع، الذي يتصل بمفتاح مركزي — تُضيف كل طبقة زمن استجابة. مع نمو المجموعات، يزيد عدد طبقات التبديل ويتدهور النطاق الترددي. تستخدم Virgo بنية نسيج منهار تُلغي المستويات الوسيطة داخل حدود مركز بيانات من 134,000 شريحة. النتيجة: 4 أضعاف النطاق الترددي للجيل السابق دون «ضريبة توسع».
ما الذي يعنيه 10 تيرابايت في الثانية من Managed Lustre عمليًا لتدريب الذكاء الاصطناعي؟
عند 10 تيرابايت في الثانية، يمكن بث مجموعة بيانات تدريب بحجم 10 تيرابايت من التخزين في ثانية واحدة. للمقارنة، يمكن لوحدة GPU A100 استهلاك البيانات بنحو 2 تيرابايت في الثانية في وضع الارتباط بالحوسبة. تتحقق ميزة Managed Lustre خلال مراحل تحميل البيانات وعمليات نقاط التفتيش — وهي اختناقات التخزين الفعلية في التدريب الموزّع.
هل ينبغي للمؤسسات النظر في TPU 8i بدلًا من بدائل GPU للاستدلال؟
تحسّن 80% في نسبة الأداء إلى التكلفة على TPU 8i المُعلَن من Google كبير، لكن المقارنة المهمة للمشتريات هي في مقابل بنى تحتية الاستدلال المبنية على GPU المنافسة — AWS Trainium2 أو مجموعات NVIDIA H100/H200 على Azure أو AWS. TPU 8i مُحسَّن لخدمة النماذج المبنية على JAX ونماذج عائلة Gemini. المؤسسات التي تعتمد خطوط أنابيب استدلال مبنية على PyTorch تواجه تكاليف ترحيل تُعوّض جزئيًا ميزة سعر الرمز.
—
المصادر والقراءات الإضافية
- Google Cloud Next ’26 Recap — Google Blog
- AI Infrastructure at Next ’26: TPU 8t and Virgo — Google Cloud Blog
- Eighth-Generation TPU for the Agentic Era — Google Blog
- What’s New in Cloud Networking at Next ’26 — Google Cloud Blog
- Google Cloud Next ’26: Gemini Enterprise Agent Platform Leads AI-Centric News — Virtualization Review















