الشريحة التي تتحدى أعراف صناعة أشباه الموصلات
يتبع كل مصنّع رقائق في العالم العملية ذاتها. تدخل رقاقة سيليكون بقطر 300 ملم إلى المصنع، تُحفر عليها مئات القوالب المتطابقة، ثم تُقطّع الرقاقة. القوالب الصالحة تُشحن والمعيبة تُتلف.
رفضت Cerebras Systems هذا المنطق بالكامل. بدلاً من تقطيع الرقاقة إلى مئات الشرائح الصغيرة، تستخدم الشركة الرقاقة بأكملها كمعالج واحد. يُصنّع محرك Wafer-Scale Engine 3 (WSE-3) بتقنية TSMC بدقة 5 نانومتر، ويضم 4 تريليونات ترانزستور و900,000 نواة محسّنة للذكاء الاصطناعي على مساحة 46,225 ملم مربع من السيليكون — أي بحجم طبق عشاء تقريباً. يحمل 44 غيغابايت من ذاكرة SRAM المدمجة ويقدم 125 بيتاFLOPS من القدرة الحسابية.
للمقارنة، يحتوي معالج H100 من Nvidia على 80 مليار ترانزستور بمساحة 814 ملم مربع. يتفوق WSE-3 بـ56 ضعفاً في المساحة و50 ضعفاً في عدد الترانزستورات. هذا ليس تحسيناً تدريجياً — إنه بنية مختلفة جذرياً، وقد قدّرها المستثمرون بـ23 مليار دولار.
من اضطرابات CFIUS إلى 23 مليار دولار
قدمت Cerebras ملف S-1 لاكتتاب في بورصة Nasdaq في سبتمبر 2024. قامت لجنة الاستثمار الأجنبي في الولايات المتحدة (CFIUS) بمراجعة علاقة الشركة مع Group 42 (G42)، وهو تكتل تقني إماراتي كان عميلاً رئيسياً ومستثمراً. منحت CFIUS الموافقة في مارس 2025، لكن في أكتوبر 2025 سحبت Cerebras ملف الاكتتاب لأن بياناتها المالية أصبحت قديمة ولم تعد تعكس التقييم أو الوضع النقدي الفعلي.
في الشهر نفسه، أغلقت Cerebras جولة Series G بقيمة 1.1 مليار دولار وتقييم 8.1 مليار دولار بقيادة Fidelity Management & Research وAtreides Management. ثم في فبراير 2026، جمعت الشركة مليار دولار إضافياً في جولة Series H بتقييم 23 مليار دولار بقيادة Tiger Global بمشاركة Benchmark وFidelity وAMD وCoatue وآخرين. لم تعد G42 مدرجة ضمن مستثمري Cerebras في الملف الجديد.
تستهدف Cerebras الآن إعادة تقديم ملف اكتتابها في Nasdaq في الربع الثاني من 2026 — لتدخل الأسواق العامة في لحظة تحظى فيها شركات عتاد الذكاء الاصطناعي بعلاوات استثنائية. CoreWeave، مزود سحابة GPU الذي طُرح للاكتتاب في مارس 2025، ارتفع بنسبة 123% منذ اكتتابه ليصل تقييمه السوقي إلى نحو 42 مليار دولار. تقدم Cerebras ما لا تملكه CoreWeave: تقنية شرائح مملوكة بدلاً من معالجات Nvidia مستأجرة.
لماذا تتفوق بنية الرقاقة الكاملة في الاستدلال
يشهد سوق الحوسبة للذكاء الاصطناعي تحولاً هيكلياً. تدريب نموذج متقدم هو إنفاق رأسمالي يتم مرة واحدة. أما الاستدلال — تشغيل النموذج المُدرَّب لكل استعلام مستخدم وكل سير عمل وكلائي وكل استدعاء API — فهو تكلفة تشغيلية مستمرة تتزايد مع الاعتماد. بحلول 2026، يمثل الاستدلال نحو 67% من إجمالي الإنفاق على حوسبة الذكاء الاصطناعي، مقارنة بنحو 50% في 2025، ومن المتوقع أن يصل إلى 80% أو أكثر بحلول 2028.
صُممت بنية GPU من Nvidia لعرض الرسوميات وكُيّفت لتدريب الذكاء الاصطناعي. في الاستدلال، خاصة التوليد المتسلسل للرموز في نماذج اللغة الكبيرة، تعاني معالجات GPU من ثلاث قيود هيكلية. أولاً، استدلال نماذج اللغة الكبيرة محدود بعرض نطاق الذاكرة: كل توليد لرمز يقرأ معاملات النموذج من الذاكرة، والمعالجات تنتظر البيانات. ثانياً، لا تحقق GPU استخداماً مرتفعاً إلا مع دفعات كبيرة، لكن التطبيقات الآنية منخفضة التأخير تتطلب دفعات صغيرة. ثالثاً، النماذج الأكبر من سعة معالج واحد يجب توزيعها على عدة شرائح، مما يولّد تكلفة اتصال إضافية.
يعالج WSE-3 القيود الثلاث. تستوعب ذاكرته المدمجة البالغة 44 غيغابايت نماذج كاملة دون الحاجة للذاكرة الخارجية. تحافظ أنويته البالغ عددها 900,000 على الاستخدام المرتفع بأي حجم دفعة. ويلغي التصميم أحادي الشريحة تكلفة الاتصال بين الشرائح كلياً. تدّعي Cerebras أن نظام CS-3 يقدم استدلالاً أسرع 21 مرة من DGX B200 Blackwell من Nvidia لأعباء Llama 3 70B. قاست اختبارات Artificial Analysis المستقلة 2,522 رمزاً في الثانية لـLlama 4 Maverick على Cerebras مقابل 1,038 على Blackwell — تفوق بمعامل 2.4 في هذا الاختبار المحدد. يتفاوت الأداء حسب عبء العمل، لكن التفوق الاتجاهي ثابت.
يستهلك نظام CS-3 نحو 23 كيلوواط ويتطلب تبريداً مائياً بألواح ذات زعانف دقيقة — لا تصلح له أي تهيئة رف قياسية. هذا عائق أمام الاعتماد وميزة تنافسية دفاعية في آن: التصميم المتكامل للتبريد والحوسبة صعب التكرار للغاية.
إعلان
شراكة الـ10 مليارات دولار مع OpenAI
أقوى تصديق تجاري حصلت عليه Cerebras هو عقدها المُعلن بقيمة 10 مليارات دولار متعدد السنوات مع OpenAI. بموجب الاتفاق، تستأجر OpenAI طاقة حوسبة Cerebras — بقدرة 750 ميغاواط حتى 2028 — بدلاً من شراء العتاد. بدأ النشر مطلع 2026 لأعباء العمل الحساسة للتأخير بما في ذلك الذكاء الاصطناعي الوكلائي.
بالنسبة لـOpenAI، المنطق هو تنويع سلسلة التوريد. تعتمد بنيتها التحتية للاستدلال شبه كلياً على معالجات Nvidia، مما يخلق اعتماداً على مورد وحيد. إضافة Cerebras كمنصة ثانية يقلل هذا الخطر ويوفر أداة ضغط تفاوضي على الأسعار.
بالنسبة لـCerebras، يوفر العقد رؤية واضحة للإيرادات تحوّل سردية الاكتتاب من “تقنية واعدة” إلى “إيرادات متعاقد عليها مع أكثر عملاء الذكاء الاصطناعي تطلباً في العالم”. خط أنابيب بقيمة 10 مليارات دولار يجعل تقييم 23 مليار دولار أسهل بكثير على المستثمرين العامين لتبريره.
منظومة منافسين في تحوّل سريع
لا تنفرد Cerebras باستهداف هيمنة Nvidia، لكن المشهد التنافسي يتغير بسرعة.
استحوذت Nvidia على Groq بنحو 20 مليار دولار في ديسمبر 2025، مستوعبةً صانع شرائح LPU المحسّنة للاستدلال. ما كان منافساً مستقلاً أصبح الآن جزءاً من الشركة المهيمنة.
SambaNova تطور شرائح تدفق بيانات قابلة لإعادة التهيئة وجمعت نحو 1.49 مليار دولار، منها 350 مليون في جولة Series E في فبراير 2026 بقيادة Vista Equity مع Intel. تركز على نشر الذكاء الاصطناعي في المؤسسات.
Tenstorrent بقيادة مهندس الشرائح Jim Keller جمعت 800 مليون دولار بتقييم 3.2 مليار وتحولت إلى نموذج ترخيص الملكية الفكرية — تستخدم Samsung وLG وHyundai أنوية RISC-V ومعالجات Tensix AI الخاصة بها.
تبقى وحدات TPU من Google البديل الأكثر انتشاراً لـNvidia لكنها متاحة فقط عبر Google Cloud، مما يحد من سوقها. AWS (Trainium/Inferentia) وMicrosoft (Maia) وMeta تطور كل منها شرائح ASIC مخصصة لأعبائها الخاصة.
من بين جميع المنافسين، تحتل Cerebras الموقف المعماري الأكثر جذرية، وتطرح ادعاءات الأداء الأكثر إثارة، وتملك أعلى تقييم خاص. سيكون اكتتابها بمثابة استفتاء على قدرة عتاد مختلف جذرياً على كسر قبضة Nvidia.
المخاطر التي قد تُفشل الرهان
مخاطر التصنيع. يجب أن تعمل كل رقاقة كنظام واحد — لا يمكن فرز القوالب الجيدة من السيئة. عيب يتجاوز ميزانية التكرار يدمر شريحة كاملة تتجاوز قيمتها 100,000 دولار. الانتقال من مئات إلى آلاف الرقاقات يُدخل أنماط فشل جديدة، وأي اضطراب في المصنع يؤثر على كل شريحة مُنتجة.
تركز العملاء. إذا جاءت حصة كبيرة من الإيرادات من OpenAI، تصبح صحة Cerebras المالية مرتبطة بتلك العلاقة الوحيدة. تعاقب الأسواق العامة الشركات التي يتجاوز فيها تركز العملاء 30-40% بمضاعفات تقييم أدنى.
رد Nvidia. تمتلك Nvidia تاريخاً في الدفاع عن حصتها السوقية عبر منتجات موجّهة وأسعار عدوانية وتحسينات لمنظومة CUDA البرمجية. هذا الخندق — ملايين المطورين وعقدان من الأدوات — يمثل أعلى تكلفة تحويل في عتاد الذكاء الاصطناعي. ما لم يكن تفوق Cerebras ساحقاً ومستداماً، ستبقى كثير من المؤسسات مع Nvidia.
الأسئلة الشائعة
ما هي شريحة الرقاقة الكاملة ولماذا تهم الذكاء الاصطناعي؟
تشغل الشريحة التقليدية جزءاً صغيراً من رقاقة السيليكون وتُقطع منها أثناء التصنيع. يستخدم WSE-3 من Cerebras الرقاقة بأكملها بقطر 300 ملم — أي 46,225 ملم مربع — كمعالج واحد يضم 4 تريليونات ترانزستور و900,000 نواة ذكاء اصطناعي. يُلغي هذا تكاليف الاتصال بين الشرائح المتعددة ويوفر 44 غيغابايت من الذاكرة المدمجة، مما يسمح بتشغيل نماذج ذكاء اصطناعي كاملة دون اختناقات الذاكرة. النتيجة هي استدلال أسرع بشكل ملحوظ لنماذج اللغة الكبيرة.
هل ادعاء Cerebras بتفوق 21 ضعفاً في الاستدلال على Nvidia موثوق؟
تقيس Cerebras أداء CS-3 بـ21 ضعف سرعة DGX B200 Blackwell من Nvidia لأعباء Llama 3 70B. قاست اختبارات Artificial Analysis المستقلة تفوقاً بمعامل 2.4 لـLlama 4 Maverick — ملموس لكنه أقل من أرقام الشركة المصنّعة. يتفاوت الأداء حسب حجم النموذج وتهيئة الدفعات ونوع عبء العمل. التفوق الاتجاهي حقيقي، لكن على المشترين توقع مكاسب فعلية بين هذين الرقمين بدلاً من أخذ ادعاء 21 ضعفاً حرفياً.
كيف يمكن أن يؤثر اكتتاب Cerebras على تكاليف حوسبة الذكاء الاصطناعي في الجزائر؟
تصل الجزائر إلى حوسبة الذكاء الاصطناعي عبر مزودي السحابة وليس عبر عتاد محلي. إذا نجحت Cerebras ودمجت منصات السحابة استدلال WSE، ستضغط المنافسة على الأسعار المعتمدة على Nvidia نزولاً. سيخفض هذا تكاليف نماذج معالجة اللغة العربية والرؤية الحاسوبية وتطبيقات الذكاء الاصطناعي الأخرى التي ينشرها باحثون وشركات ناشئة ووكالات حكومية جزائرية. يعتمد الجدول الزمني على اعتماد مزودي السحابة — تابعوا الشراكات المُعلنة بعد اكتتاب الربع الثاني من 2026.
المصادر والقراءات الإضافية
- Cerebras Systems Raises $1 Billion Series H — Cerebras
- OpenAI Partners with Cerebras for Inference Compute — OpenAI
- Cerebras CS-3 vs. Nvidia DGX B200 Blackwell Benchmark — Cerebras
- Cerebras WSE-3 Third Generation Wafer-Scale Engine — IEEE Spectrum
- CoreWeave Stock Soars 123% Since IPO — Motley Fool
- Cerebras $10 Billion Inference Deal with OpenAI — Next Platform
- Nvidia Buying Groq for $20 Billion — CNBC
- AI Compute Shift from Training to Inference — Computerworld















