⚡ أبرز النقاط

كشف Google Cloud Next 2026 عن وحدات superpod من طراز TPU 8t (9,600 شريحة، 121 exaflops، 2 petabytes من الذاكرة المشتركة) متصلة عبر شبكة Virgo (134,000 شريحة في مركز بيانات واحد، أكثر من مليون عبر مواقع متعددة) وتخزين Managed Lustre يُقدّم 10 تيرابايت في الثانية — أسرع بـ20 مرة من المنافسين المُصرَّح بهم. تُقدّم شريحة الاستدلال TPU 8i أداءً أفضل بنسبة 80% لكل دولار مقارنةً بالجيل السابق.

الخلاصة: ينبغي لمهندسي السحابة المؤسسيين إعادة تسعير أعباء عمل استدلال الذكاء الاصطناعي وفق اقتصاديات TPU 8i وتقييم تكوينات الضبط التلقائي في GKE باستخدام بيانات تقليص 80% في وقت بدء تشغيل الحاويات قبل إبرام عقود البنية التحتية للجيل الحالي.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
متوسط

ستستفيد الشركات الناشئة والمؤسسات الجزائرية التي تستخدم Google Cloud لأعباء عمل الذكاء الاصطناعي من تحسّن اقتصاديات استدلال Gemini وأداء GKE — لكن بنية تحتية التدريب على نطاق واسع تتجاوز إمكانيات النشر المحلي.
البنية التحتية جاهزة؟
جزئي

يدعم معيار FTTH البالغ 100 ميغابت والاتصال السحابي المتنامي في الجزائر الوصول على مستوى واجهة برمجة التطبيقات لخدمات Google Cloud، لكن طاقة مراكز البيانات المحلية للاستضافة المشتركة أو أعباء العمل الطرفية الحساسة لزمن الاستجابة تبقى محدودة.
المهارات متوفرة؟
جزئي

يوجد مهندسو سحابة وممارسو GKE جزائريون لكنهم مركّزون في الجزائر العاصمة. الخبرة الخاصة بـTPU (PJRT وJAX) نادرة — معظم مهندسي التعلم الآلي الجزائريين يعملون مع PyTorch على بنية تحتية GPU.
الجدول الزمني للعمل
6-12 شهراً

تحسينات استدلال TPU 8i ومكاسب وقت بدء تشغيل حاويات GKE متاحة الآن — ينبغي للفرق الجزائرية التي تستخدم Google Cloud تقييمها في أعباء العمل الحالية.
أصحاب المصلحة الرئيسيون
المدراء التقنيون للمؤسسات، مهندسو السحابة، مهندسو التعلم الآلي، القادة التقنيون في الشركات الناشئة
نوع القرار
تكتيكي

يمكن اتخاذ قرارات البنية التحتية والتكلفة الفورية المتعلقة بخدمات Google Cloud استنادًا إلى المواصفات المُعلَنة.

خلاصة سريعة: ينبغي للفرق الجزائرية التي تُشغّل أعباء عمل الذكاء الاصطناعي على Google Cloud إعادة تسعير أعباء عمل الاستدلال وفق اقتصاديات TPU 8i وتقييم تكوينات الضبط التلقائي في GKE باستخدام بيانات أداء بدء تشغيل الحاويات الجديدة. تحسين 80% في تكلفة الاستدلال وانخفاض 70% في زمن استجابة بوابة الاستدلال قابلان للقياس والتطبيق.

ما الذي أعلنته Google فعليًا في Next ’26

أنتج Google Cloud Next 2026 إحدى أكثر الإعلانات تفصيلًا من الناحية التقنية في تاريخ مؤتمرات الحوسبة السحابية الحديثة. تشمل الإفصاحات طبقات الحوسبة والشبكات والتخزين والتطبيقات. يُركّز هذا المقال على مستوى البنية التحتية حيث ستتراكم القرارات المعمارية لسنوات.

TPU 8t (التدريب): تضم شريحة التدريب من الجيل الثامن 9,600 شريحة في وحدة superpod واحدة تُقدّم 121 exaflops من القدرة الحوسبية و2 petabytes من الذاكرة المشتركة. تضاعفت بنطاق ترددي الاتصال البيني بين الشرائح (ICI) مقارنةً بالجيل السابق. على نطاق المجموعة، تربط شبكة Virgo 134,000 شريحة TPU 8t في مركز بيانات واحد ويمكن توسيعها لتشمل أكثر من مليون شريحة عبر منشآت متعددة.

TPU 8i (الاستدلال): تحمل النسخة المُحسَّنة للاستدلال 384 ميغابايت من ذاكرة SRAM على الشريحة (ثلاثة أضعاف الجيل السابق)، و288 غيغابايت من ذاكرة عالية النطاق الترددي (HBM)، و19.2 تيرابت في الثانية من بنطاق ترددي ICI (مضاعف). يُقلّص محرّك تسريع التجمعات (CAE) زمن الاستجابة على الشريحة بما يصل إلى 5 مرات. تُعلن Google عن تحسّن 80% في الأداء لكل دولار لأعباء عمل الاستدلال مقارنةً بالجيل السابق.

بنية شبكة Virgo: الخاصية المميّزة لـVirgo هي تصميم النسيج المنهار (collapsed fabric) الذي يُلغي «ضريبة التوسع» — تدهور زمن الاستجابة والنطاق الترددي الذي يحدث عادةً مع نمو مجموعات GPU أو TPU. تُقدّم Virgo 4 أضعاف نطاق ترددي جيل الشبكة السابق مع الحفاظ على خصائص أداء ثابتة عبر نسيج 134,000 شريحة بالكامل داخل مركز بيانات واحد.

Google Cloud Managed Lustre: يُحتمَل أن يكون إعلان التخزين هو الأقل تقديرًا من بين ما أُعلن في Next ’26. يُقدّم Managed Lustre الآن 10 تيرابايت في الثانية من النطاق الترددي — تحسّن بمقدار 10 أضعاف على أساس سنوي، و20 مرة أسرع من المنافس الأقرب وفق ما تُعلنه Google. الطاقة الاستيعابية: 80 petabytes. لأعباء عمل تدريب الذكاء الاصطناعي، يكون إنتاجية التخزين في الغالب القيد الحاسم.

الانعكاسات على مستوى التطبيقات: شهدت GKE تحسينًا بمقدار 4 أضعاف في وقت بدء تشغيل العقد وتقليصًا يصل إلى 80% في وقت بدء تشغيل الحاويات. انخفضت زمن استجابة بوابة الاستدلال Inference Gateway بنسبة 70% للوقت حتى أول رمز (TTFT) دون ضبط يدوي.

إعلان

ما يجب على مهندسي السحابة المؤسسيين فعله بهذه المعلومات

1. إعادة تسعير خارطة طريق أعباء عمل التدريب المؤسسي في مقابل اقتصاديات TPU 8t

سيُضيّق تحسّن التكلفة بنسبة 80% في استدلال TPU 8i تكاليف التدريب والاستدلال بالذكاء الاصطناعي المؤسسي بطرق لم تُقدَّر في معظم ميزانيات السحابة لعام 2025. إذا أجّلت مؤسستك ضبط النماذج الكبيرة أو نشر خطوط أنابيب RAG لأن تكلفة الحوسبة كانت باهظة على النطاق الحالي، أعد تسعير تلك الأحمال في مقابل أسعار استدلال TPU 8i — لا في مقابل اقتصاديات الجيل السابق.

2. مقارنة بنية التخزين لديك بمعيار 10 تيرابايت/ث لـManaged Lustre

معظم خطوط أنابيب الذكاء الاصطناعي المؤسسي مقيّدة بالتخزين قبل أن تكون مقيّدة بالحوسبة. إذا كانت مؤسستك تُشغّل حاليًا أعباء عمل التدريب على التخزين الكائني السحابي القياسي (إنتاجية نموذجية 10-50 غيغابايت في الثانية)، فإن وجود Managed Lustre بسعة 10 تيرابايت في الثانية يُغيّر نقاش البنية المعمارية. ليس إشارةً للترحيل الفوري — يحمل Managed Lustre تسعيرًا مميّزًا — لكنه إشارة لقياس استخدام إنتاجية التخزين الفعلي خلال تشغيلات التدريب.

3. تقييم النسيج المنهار لـVirgo بوصفه قرارًا متعدد السنوات

النسيج المنهار لـVirgo متمايز معماريًا عن طوبولوجيا التبديل المتعدد الطبقات القياسية، ولا يمكن تكرار خصائص أدائه على نطاق 134,000 شريحة باستخدام الشبكات الاعتيادية. إذا التزمت مؤسستك بأعباء عمل تدريب على النطاق الذي تتحقق فيه ميزة نطاق ترددي Virgo — عادةً ما يتجاوز 1,000 شريحة للتدريب الموزّع — فأنت تتخذ التزامًا معماريًا متعدد السنوات بتصميم شبكة Google Cloud الخاص. قيّم ذلك في مقابل تكلفة إمكانية النقل لبناء خطوط أنابيب تدريب مكافئة على AWS Trainium2 أو مجموعات Azure NDH100v5.

4. دمج تحسينات وقت بدء تشغيل حاويات GKE في نمذجة تكلفة الاستدلال

يُحدث التقليص البالغ 80% في وقت بدء تشغيل حاويات GKE وتسريع بدء تشغيل العقد بمقدار 4 أضعاف تأثيرًا ماليًا محددًا: يُقلّصان تكلفة الحوسبة الخاملة خلال فترات التوسع إلى الصفر لأعباء عمل الاستدلال. نمذج التأثير المالي لأداء بدء تشغيل GKE الجديد في مقابل الحد الأدنى الحالي لعدد العقد في مجموعة الاستدلال لديك.

الدرس الهيكلي: بنية تحتية الحوسبة السحابية الكبرى كسباق تسلّح في عصر التدريب

تمثّل إعلانا TPU 8t وشبكة Virgo نمطًا متسقًا لدى كبار مزودي الحوسبة السحابية الثلاثة منذ 2023: لم يعد الاستثمار في بنية تحتية تدريب الذكاء الاصطناعي مُحرَّكًا بإشارات الطلب التجاري، بل بالتموضع الاستراتيجي للجيل النموذجي القادم.

عند 121 exaflops لكل superpod ومليون شريحة في كل مجموعة، لا تبني Google بنية تحتية مُحجَّمة للطلب المؤسسي الحالي. أعباء عمل الذكاء الاصطناعي المؤسسي على نطاق واسع تستهلك مئات إلى آلاف الشرائح، لا ملايين. نطاق المليون شريحة مُحجَّم لتطوير النماذج الحديّة: الجيل التالي من Gemini والنماذج التي ستخلفه.

ما يعنيه هذا لمهندسي المؤسسات: ستكون إمكانات superpod الخاص بـTPU 8t متاحة لعملاء المؤسسات عبر بنية تحتية مشتركة متعددة المستأجرين بأسعار تنافسية، ليس لأن Google تبيع superpods للمؤسسات، بل لأن Google ستستخدم superpods لتدريب الجيل التالي من النماذج التي يصل إليها عملاء المؤسسات عبر واجهة برمجة التطبيقات. يتدفق الاستثمار في البنية التحتية للأعلى؛ ويتدفق الفائدة المؤسسية للأسفل من خلال جودة نموذج محسّنة وتكاليف استدلال أقل لكل رمز.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

كيف يختلف شبكة Virgo عن شبكة مجموعة GPU التقليدية؟

تستخدم مجموعات GPU التقليدية تبديلًا هرميًا: تتصل وحدات GPU الفردية بمفتاح رأس الرف، الذي يتصل بمفتاح تجميع، الذي يتصل بمفتاح مركزي — تُضيف كل طبقة زمن استجابة. مع نمو المجموعات، يزيد عدد طبقات التبديل ويتدهور النطاق الترددي. تستخدم Virgo بنية نسيج منهار تُلغي المستويات الوسيطة داخل حدود مركز بيانات من 134,000 شريحة. النتيجة: 4 أضعاف النطاق الترددي للجيل السابق دون «ضريبة توسع».

ما الذي يعنيه 10 تيرابايت في الثانية من Managed Lustre عمليًا لتدريب الذكاء الاصطناعي؟

عند 10 تيرابايت في الثانية، يمكن بث مجموعة بيانات تدريب بحجم 10 تيرابايت من التخزين في ثانية واحدة. للمقارنة، يمكن لوحدة GPU A100 استهلاك البيانات بنحو 2 تيرابايت في الثانية في وضع الارتباط بالحوسبة. تتحقق ميزة Managed Lustre خلال مراحل تحميل البيانات وعمليات نقاط التفتيش — وهي اختناقات التخزين الفعلية في التدريب الموزّع.

هل ينبغي للمؤسسات النظر في TPU 8i بدلًا من بدائل GPU للاستدلال؟

تحسّن 80% في نسبة الأداء إلى التكلفة على TPU 8i المُعلَن من Google كبير، لكن المقارنة المهمة للمشتريات هي في مقابل بنى تحتية الاستدلال المبنية على GPU المنافسة — AWS Trainium2 أو مجموعات NVIDIA H100/H200 على Azure أو AWS. TPU 8i مُحسَّن لخدمة النماذج المبنية على JAX ونماذج عائلة Gemini. المؤسسات التي تعتمد خطوط أنابيب استدلال مبنية على PyTorch تواجه تكاليف ترحيل تُعوّض جزئيًا ميزة سعر الرمز.

المصادر والقراءات الإضافية