أعقد منصة شحنتها NVIDIA على الإطلاق
أُعلن عنها في CES 2026 وتدخل الإنتاج الكامل، Vera Rubin هي أول منصة ذكاء اصطناعي بستة شرائح “extreme codesign” من NVIDIA والخليفة الرسمي لـ Blackwell. ليست GPU واحداً — بل حزمة منسَّقة من CPU Vera، GPU Rubin، محول NVLink 6، ConnectX-9 SuperNIC، BlueField-4 DPU، ومحول Spectrum-6 Ethernet، مُهندَسة للعمل كنظام واحد.
النشر السحابي مُجهَّز بالفعل. أكدت AWS وGoogle Cloud وMicrosoft Azure وOracle Cloud Infrastructure وCoreWeave وLambda وNebius وNscale جميعها مثيلات Vera Rubin للنصف الثاني من 2026. بالنسبة لمشتري المؤسسات، يعني ذلك أن السعة التقريبية تصل في أوائل 2027، مع أولوية مُخصَّصة لمختبرات نماذج الحدود وأعباء العمل الداخلية للهايبرسكيلر أولاً.
GPU Rubin: الأرقام الرئيسية
كل GPU Rubin مبني على 336 مليار ترانزستور ويُشحن مع:
- 288 جيجابايت من ذاكرة HBM4 (مقارنة بـ 192 جيجابايت على B200)
- 50 بيتافلوب من استدلال FP4 (مقابل 20 بيتافلوب على Blackwell — قفزة 2.5x)
- 3.6 تيرابايت/ثانية من عرض النطاق الترددي للذاكرة لكل GPU
- 260 تيرابايت/ثانية من عرض النطاق الترددي للترابط عبر NVLink 6
بالنسبة لفرق التدريب، الأثر العملي هو أن نماذج التريليون معامل التي تطلَّبت توازياً عدوانياً في التنسور وخط الأنابيب على Blackwell يمكن الآن استيعابها في عناقيد Rubin أصغر بحمل تنسيق أقل. تُشير أرقام NVIDIA الداخلية إلى الحاجة إلى عدد أقل بـ 4 أضعاف من وحدات GPU لتدريب نماذج mixture-of-experts بزمن تدريب مماثل.
قصة على مستوى الرف: NVL144 وNVL576
تهم مواصفات GPU الفردية أقل من تكوينات على مستوى الرف للمشترين الذين يُحدِّدون حجم النشر.
Vera Rubin NVL144 يحزم 72 وحدة GPU Rubin (144 شريحة حوسبة) مع 36 وحدة CPU Vera في رف واحد بحجم 72U. يُقدِّم 3.6 إكزافلوب من استدلال FP4 و1.2 إكزافلوب من تدريب FP8، مكسب 3.3x مقارنة بـ GB300 NVL72 من جيل Blackwell. إجمالي الذاكرة عالية النطاق: 13 تيرابايت/ثانية، مع 75 تيرابايت من الذاكرة السريعة لكل رف. يصل عرض النطاق الترددي الكلي بين GPU وGPU عبر NVSwitch 6.0 إلى 28.8 تيرابايت/ثانية.
Vera Rubin Ultra NVL576، يصل لاحقاً في 2026/2027، يُوحِّد ثمانية رفوف NVL في مجال NVLink واحد بـ 576 GPU — أي حاسوب فائق منطقي واحد يُعرض لمهمة تدريب واحدة. يرتفع استهلاك الطاقة وفقاً لذلك إلى نحو 600 كيلوواط لكل رف، وهو ما يجعل العديد من مرافق التواجد المشترك تُحدِّث للتبريد السائل كشرط مسبق لاستقبال سعة Rubin.
إعلان
Rubin CPX: مُسرِّع مُصمَّم للسياق الطويل
أحد القطع الأقل ضجيجاً ولكن المهمة استراتيجياً في المنصة هو Rubin CPX (Context Processing Extension). مُصمَّم لتسريع أعباء العمل ذات السياق بمليون رمز، يقترن CPX بـ 128 جيجابايت من GDDR7 (أرخص من HBM4) مع 30 بيتافلوب من حوسبة NVFP4، محسَّنة خصيصاً لرياضيات الانتباه التي تُهيمن على استدلال السياق الطويل.
بالنسبة للتطبيقات التي تقرأ قواعد كود كاملة، أو ملفات قضايا قانونية، أو تدفقات فيديو متعددة الساعات لكل طلب، يُفرِّغ CPX ملء السياق المسبق من وحدات Rubin GPU ويُقدِّم رموزاً لكل دولار أفضل مادياً على المطالبات الطويلة. توقَّعوا أن يكون مزودو الخدمات كثيفي الاستدلال — مساعدو البرمجة، منصات تحليل الوثائق، واجهات API لفهم الفيديو — من بين أوائل من يعتمدون نشرات Rubin+CPX المختلطة.
البصريات المُحزَّمة معاً: نقطة الانكسار في الشبكات
Rubin هي أيضاً أول منصة من NVIDIA تدمج البصريات المُحزَّمة معاً (CPO) على نطاق واسع. يشحن رف Spectrum-6 SPX محولاً بسرعة 102.4 تيرابت/ثانية مع 512 مساراً وCPO بسرعة 200 جيجابت/ثانية، يحل محل أجهزة الإرسال والاستقبال القابلة للتوصيل. المكافأة هي طاقة أقل لكل بت، زمن استجابة أقل، اضطراب أقل، وعرض نطاق ترددي فعلي قريب من الذروة النظرية — الشروط اللازمة للحفاظ على 576 GPU تعمل كنظام متماسك واحد.
كان CPO طموح الصناعة لسنوات. Rubin هو الجيل الأول الذي يشحنه بكميات للعملاء، وسيرفع بسرعة المعيار لمنصات شبكات الذكاء الاصطناعي المنافسة.
ما يجب على المشترين فعله فعلاً في 2026
1. أمِّنوا التخصيص مبكراً. ستكون مثيلات Rubin من الهايبرسكيلر مقيَّدة السعة على الأقل حتى 2027. يجب على المؤسسات ذات خرائط طريق التدريب الثابتة لـ 2026 توقيع الحجوزات الآن، لا في الربع الرابع.
2. خططوا للقفزة في الطاقة والتبريد. لن يستوعب رف NVL576 بسعة 600 كيلوواط معظم قاعات التواجد المشترك من حقبة 2020. يجب أن تسير عمليات شراء المرافق بالتوازي مع شراء GPU — هنا حيث ستنزلق العديد من النشرات.
3. نمذجوا منحنى تكلفة الاستدلال. “تكلفة لكل رمز أقل بـ 10 أضعاف من Blackwell” التي تذكرها NVIDIA رقم حقيقي لأعباء العمل المرتبطة فعلاً بالحوسبة في FP4. بالنسبة لأعباء العمل المرتبطة بالذاكرة أو الشبكة، تكون التوفيرات الحقيقية أصغر. يجب على المشترين تجربة نماذج تمثيلية قبل الالتزام بافتراضات الإنفاق الرأسمالي.
4. فكروا في تكوينات مختلطة. ستكون مجموعات Rubin + Rubin CPX أرخص مادياً من Rubin وحده لخدمات الاستدلال طويلة السياق. خطوط ميزانية منفصلة لتسريع الملء المسبق تجعل قصة TCO تعمل.
5. لا تتخطوا CPU Vera. يقترن CPU Vera الجديد بـ 88 نواة بإحكام مع Rubin عبر NVLink ويتعامل مع نقل البيانات، وحفظ نقاط التحقق، ومستوى التحكم الذي يُبقي استخدام GPU عالياً. ستعمل وحدات CPU x86 من جهات خارجية، لكن أعباء العمل المُحسَّنة لـ NVIDIA تُقدِّم أداءً أقل بشكل ملموس بدون Vera.
السياق التنافسي
سلسلة MI400 من AMD والسيليكون المخصص من AWS (Trainium 3) وGoogle (خليفة TPU v7 Trillium) وMicrosoft (Maia 200) جميعها تستهدف توافراً في 2026-2027. لا يُطابق أيٌّ منها حالياً مزيج Rubin من سعة الذاكرة، ومقياس NVLink، ونضج النظام البيئي البرمجي. ستستمر مختبرات نماذج الحدود — OpenAI، Anthropic، Google DeepMind، Mistral، Cohere، وبرامج الذكاء الاصطناعي السيادي في Singapore، الإمارات، والمملكة العربية السعودية — في الهيمنة على تخصيص Rubin المبكر.
بالنسبة للجميع الآخر، السؤال العملي ليس ما إذا كان يجب شراء Rubin، بل متى تصبح السعة السحابية متاحة بسعر يتفوَّق على تشغيل أعباء عمل Blackwell لدورة إضافية. بالنسبة لمعظم المؤسسات، يصل هذا التقاطع في النصف الأول من 2027.
الأسئلة الشائعة
هل ستستضيف الجزائر يوماً بنية تحتية من فئة Rubin محلياً؟
ليس على نطاق واسع في نافذة 2026-2027. القيود الملزمة هي الطاقة (600 كيلوواط لكل رف)، وبنية التبريد السائل، والمواهب الهندسية المستدامة للتشغيل على نطاق العنقود. مسار جزائري واقعي هو شراكة مع neocloud (من نمط CoreWeave) أو هايبرسكيلر مستعد لنشر منطقة إقليمية — والذي يعتمد بدوره على ضمانات الطاقة والوضوح التنظيمي.
ماذا تعني فعلاً “تكلفة لكل رمز أقل بـ 10 أضعاف” لمطور يستخدم API من OpenAI أو Anthropic؟
ينطبق ادعاء NVIDIA على استدلال FP4 المرتبط بالحوسبة في ظروف مثالية. التمرير الواقعي لتسعير API يكون عادةً من 30 إلى 60% من التحسين الخام للأجهزة في الـ 12 شهراً الأولى، يرتفع مع استهلاك الهايبرسكيلر للإنفاق الرأسمالي. توقَّعوا انخفاض أسعار استدلال نماذج الحدود بنسبة 30-50% عبر واجهات API الرئيسية خلال 2026-2027، لا 10x كاملة.
هل يجب على الشركات الناشئة الجزائرية في الذكاء الاصطناعي انتظار Rubin قبل البناء؟
لا. سعة حقبة Blackwell أكثر من كافية لبناء منتجات اليوم. القرار المعماري الصحيح هو تجريد طبقة الاستدلال (LiteLLM، OpenRouter، موجِّه مخصص) بحيث عند وصول تسعير Rubin، يمكنكم تبديل المزودين دون إعادة كتابة كود المنتج.
المصادر والقراءات الإضافية
- NVIDIA Kicks Off the Next Generation of AI With Rubin — NVIDIA Newsroom
- Inside the NVIDIA Vera Rubin Platform — NVIDIA Technical Blog
- NVIDIA launches Vera Rubin NVL72 AI supercomputer at CES — Tom’s Hardware
- NVIDIA Unveils Rubin CPX for Massive-Context Inference — NVIDIA Newsroom
- NVIDIA Vera Rubin NVL144 Platform Overview — NADDOD Blog
- Infrastructure for Scalable AI Reasoning — NVIDIA Vera Rubin Platform






