أندر مورد في عالم التكنولوجيا
في عام 2024، لم تكن السلعة الأكثر قيمة في صناعة التكنولوجيا هي البرمجيات أو البيانات أو المواهب البشرية. كانت وحدات معالجة الرسومات (GPU) — وتحديداً مسرّعات H100 وH200 من NVIDIA — الرقائق المتخصصة التي تدرّب وتشغّل نماذج الذكاء الاصطناعي الكبيرة التي تقود الثورة التكنولوجية الحالية.
تجاوز الطلب على حوسبة الذكاء الاصطناعي العرض بشكل كبير لدرجة أن الوصول إلى GPU أصبح عنق زجاجة استراتيجياً لشركات الذكاء الاصطناعي والمزودين الكبار والحكومات السيادية على حد سواء. نمت إيرادات NVIDIA من مراكز البيانات من 15 مليار دولار في السنة المالية 2023 إلى أكثر من 115 مليار دولار في السنة المالية 2025 — بزيادة قدرها 7.7 أضعاف في عامين — وكانت كل رقاقة محجوزة قبل أشهر من شحنها.
خلقت هذه الندرة في GPU فرصة لفئة جديدة من مزودي الخدمات السحابية: شركات لا تحاول منافسة AWS أو Azure أو GCP عبر كامل المجموعة السحابية، بل تتخصص حصرياً في حوسبة GPU عالية الكثافة لأحمال عمل الذكاء الاصطناعي. جمعت شركات مثل CoreWeave وLambda Labs وCrusoe Energy وTogether AI وغيرها مليارات الدولارات وتبني بنية تحتية سحابية موازية محسّنة لهدف واحد: تشغيل الذكاء الاصطناعي.
CoreWeave: من تعدين العملات المشفرة إلى السحابة إلى طرح عام بقيمة 23 مليار دولار
تُعد قصة CoreWeave واحدة من أبرز التحولات في تاريخ التكنولوجيا الحديث. تأسست الشركة في عام 2017 تحت اسم Atlantic Crypto كعملية تعدين عملات مشفرة، ثم بدأت التحول نحو الحوسبة السحابية GPU بعد انهيار سوق العملات المشفرة عام 2018 الذي جعل التعدين غير مجدٍ اقتصادياً. بحلول 2019-2020، كانت CoreWeave تقدم خدمات سحابية GPU للمؤثرات البصرية والعرض ثلاثي الأبعاد. ثم في عام 2022، أدركت CoreWeave أن الذكاء الاصطناعي هو فرصتها الرئيسية واستثمرت بكثافة في أحدث وحدات H100 من NVIDIA، لتتموضع كشريك بنية تحتية رئيسي لشركات مثل OpenAI.
جاء التوقيت مواتياً بشكل استثنائي. بحلول عام 2023، كانت CoreWeave واحدة من الشركات القليلة خارج المزودين الكبار التي تمتلك مخزوناً كبيراً من GPU، وكان الطلب من شركات الذكاء الاصطناعي لا يُشبع. جمعت الشركة 7.5 مليار دولار من تمويل الديون في 2024 بقيادة Blackstone وMagnetar، مضمونة بشكل رئيسي بعقود العملاء والبنية التحتية لوحدات GPU. أتمت CoreWeave طرحها العام في مارس 2025 بسعر 40 دولاراً للسهم — بتقييم أولي يقارب 23 مليار دولار — لتتجاوز القيمة السوقية لاحقاً 35 مليار دولار مع تصاعد الطلب على البنية التحتية للذكاء الاصطناعي.
تكمن الميزة التنافسية لـ CoreWeave في التخصص. بينما تقدم AWS مئات الخدمات عبر الحوسبة والتخزين والشبكات وقواعد البيانات والتحليلات والتعلم الآلي، تركز CoreWeave على شيء واحد: توفير أسرع وأكثر حوسبة GPU موثوقية لتدريب واستدلال الذكاء الاصطناعي. يتيح هذا التركيز:
كثافة GPU أعلى. صُممت مراكز بيانات CoreWeave من الصفر لأحمال GPU، مع تبريد سائل وشبكات InfiniBand عالية النطاق بين وحدات GPU وبنى تخزين محسّنة لأنماط الوصول ذات الإنتاجية العالية والملفات الكبيرة المميزة لتدريب الذكاء الاصطناعي.
زمن استجابة أقل بين وحدات GPU. يتطلب تدريب نموذج ذكاء اصطناعي كبير آلاف وحدات GPU تتواصل بشكل مكثف. طوبولوجيا الشبكة وعرض النطاق بين وحدات GPU لا تقل أهمية عن وحدات GPU ذاتها. تحقق مجموعات CoreWeave المتخصصة زمن استجابة بين وحدات GPU أقل من البيئات السحابية العامة حيث تتشارك أحمال الذكاء الاصطناعي البنية التحتية مع خوادم الويب وقواعد البيانات.
تسعير أبسط. بدلاً من تسعير AWS المعروف بتعقيده مع مئات أنواع الحالات وأبعاد الفوترة، تقدم CoreWeave تسعيراً مباشراً لكل ساعة-GPU بتكاليف متوقعة.
تشمل قاعدة عملاء CoreWeave شركة Microsoft (التي وقعت اتفاقية بمليارات الدولارات — تُقدر بنحو 10 مليارات دولار — لاستخدام بنية CoreWeave التحتية لأحمال الذكاء الاصطناعي في Azure) وMeta وعشرات الشركات الناشئة في مجال الذكاء الاصطناعي. العلاقة مع Microsoft جديرة بالملاحظة بشكل خاص: ثاني أكبر مزود سحابي في العالم يستأجر بنفسه قدرات GPU من مزود متخصص، مما يبرز حدة أزمة نقص الحوسبة.
Lambda Labs: سحابة GPU الموجهة للمطورين
اقتربت Lambda Labs من سوق GPU السحابي من زاوية مختلفة: تجربة المطور. أسسها Stephen Balaban، وبدأت Lambda ببيع محطات عمل GPU لباحثي الذكاء الاصطناعي، ثم توسعت في تأجير GPU السحابي مع التركيز على جعل حوسبة الذكاء الاصطناعي سهلة الاستخدام قدر الإمكان.
يتميز Lambda بنهجه المتمحور حول المطور:
بيئات مُعدة مسبقاً. تأتي حالات Lambda السحابية مع أحدث تعريفات NVIDIA ومجموعة أدوات CUDA وPyTorch وTensorFlow وأطر عمل التعلم الآلي الأخرى مثبتة ومختبرة مسبقاً. يمكن للباحث الانتقال من الصفر إلى تدريب نموذج في دقائق بدلاً من قضاء ساعات في تصحيح مشاكل توافق التعريفات — وهي نقطة ألم حقيقية على المنصات السحابية العامة.
إدارة مبسطة للمجموعات. تتولى المجموعات المُدارة من Lambda تعقيد البنية التحتية للتدريب متعدد GPU ومتعدد العقد — جدولة المهام وأطر التدريب الموزع وإدارة نقاط الحفظ والتسامح مع الأعطال — ليتمكن الباحثون من التركيز على تطوير النماذج.
أسعار تنافسية. كانت أسعار Lambda لوحدات H100 أقل بنسبة 30 إلى 50% باستمرار من الحالات المكافئة في AWS وAzure، بفضل انخفاض النفقات العامة (لا حاجة لصيانة مئات الخدمات غير المتعلقة بـ GPU) وكفاءة عمليات مراكز البيانات.
أصبح Lambda المزود السحابي الافتراضي للعديد من مختبرات الأبحاث والشركات الناشئة في مجال الذكاء الاصطناعي، بما في ذلك عقود مهمة مع مؤسسات أكاديمية تحتاج إلى وصول GPU لكنها لا تستطيع تبرير أسعار المزودين الكبار.
إعلان
منظومة المنافسين الأوسع
CoreWeave وLambda هما أبرز منافسي GPU السحابي، لكن المنظومة تتوسع:
Crusoe Energy تجمع بين حوسبة GPU والغاز الطبيعي المُهدر — الغاز الذي كان سيُحرق بلا فائدة في مواقع استخراج النفط. من خلال بناء مراكز بيانات نموذجية في مواقع آبار الغاز واستخدام الغاز المُهدر لتوليد الكهرباء، توفر Crusoe حوسبة ذكاء اصطناعي بتكلفة أقل مع تقليل انبعاثات الميثان. جمعت الشركة أكثر من 2.5 مليار دولار من التمويل الإجمالي، بما في ذلك جولة Series E بقيمة 1.375 مليار دولار في أكتوبر 2025 قيّمتها بأكثر من 10 مليارات دولار، وتشغّل مجموعات GPU تعمل بالكامل بطاقة كانت ستُهدر.
Together AI تجمع بين منصة GPU سحابية ومختبر أبحاث ذكاء اصطناعي مفتوح المصدر، تقدم استدلالاً سحابياً للنماذج مفتوحة المصدر الشائعة (Llama وMistral وغيرها) إلى جانب خدمات التدريب المخصص. يتيح منتج “الاستدلال بدون خادم” (serverless inference) من Together للمطورين استدعاء نماذج مفتوحة المصدر عبر واجهة برمجة التطبيقات (API) دون إدارة البنية التحتية — منافسةً OpenAI وAnthropic مباشرة على السعر للتطبيقات التي لا تتطلب قدرات الخطوط الأمامية.
Voltage Park، منظمة غير ربحية يموّلها الملياردير Jed McCaleb (المؤسس المشارك لـ Ripple وStellar)، دخلت السوق أواخر 2023 بطلبية شراء 24,000 وحدة H100 GPU بقيمة تقارب 500 مليون دولار، نُشرت عبر ستة مراكز بيانات بحلول مطلع 2024. تستهدف المنظمة شركات وباحثي الذكاء الاصطناعي الذين يحتاجون إلى وصول مضمون طويل الأمد للحوسبة بأسعار تنافسية.
Nebius (المنبثقة عن Yandex) تبني بنية تحتية سحابية GPU في أوروبا، تستهدف الطلب المتزايد على حوسبة الذكاء الاصطناعي السيادية — الشركات والحكومات الأوروبية التي تريد بنية تحتية للذكاء الاصطناعي موجودة في مراكز بيانات أوروبية تحت قوانين حماية البيانات الأوروبية.
استجابة المزودين الكبار
لم تقف AWS وAzure وGCP مكتوفة الأيدي. استثمر كل منها عشرات المليارات من الدولارات في البنية التحتية للذكاء الاصطناعي:
AWS وسّعت عروض GPU الخاصة بها مع حالات NVIDIA H100 وH200 (عائلات P5 وP5e)، ورقائق الذكاء الاصطناعي المخصصة الخاصة بها (Trainium2، المتاح للاستخدام العام منذ ديسمبر 2024، مع توقع Trainium3 أواخر 2025)، وBedrock — خدمة مُدارة لتشغيل نماذج الأساس. تكمن ميزة AWS في التكامل: تتصل حالات GPU بسلاسة بتخزين S3 وأنابيب التعلم الآلي SageMaker وبقية منظومة AWS.
Microsoft Azure يملك أعمق شراكة في الذكاء الاصطناعي من خلال علاقته الحصرية مع OpenAI واستثماره في CoreWeave لسعة الفائض. تموضع حالات Azure ND H200 ومسرّع Maia 100 المخصص للذكاء الاصطناعي الخدمة لأحمال التدريب والاستدلال، رغم أن النشر الإنتاجي واسع النطاق لـ Maia 100 ظل محدوداً، وتأخر الجيل التالي Maia 200 إلى عام 2026.
Google Cloud تستفيد من بنية TPU (وحدة معالجة التنسور) التحتية — رقائق الذكاء الاصطناعي المصممة خصيصاً من Google والتي تقدم بديلاً لوحدات GPU من NVIDIA. توفر مجموعات TPU v5p نطاقاً هائلاً للتدريب (حتى 8,960 رقاقة لكل مجموعة) بأسعار تنافسية، ونماذج Gemini من Google مدرّبة بالكامل على TPU.
الميزة الهيكلية للمزودين الكبار هي المنظومة والعلاقات المؤسسية. من غير المرجح أن تنقل مؤسسة تعمل بالفعل على AWS أحمال الذكاء الاصطناعي الخاصة بها إلى CoreWeave لمجرد سعر GPU — تكاليف التكامل وجاذبية البيانات (نقل تيرابايتات من بيانات التدريب إلى مزود جديد) تخلق ارتباطاً قوياً. يفوز المنافسون عندما: (أ) يكون حمل العمل مهيمناً عليه GPU مع اعتماد ضئيل على خدمات سحابية أخرى، (ب) يكون العميل شركة ذكاء اصطناعي أصيلة (وليس مؤسسة تقليدية)، أو (ج) تكون فجوة السعر/الأداء كبيرة بما يكفي لتبرير تكاليف التكامل.
السيليكون المخصص: المسار البديل لـ NVIDIA
ترتبط حرب GPU السحابية بحرب السيليكون المخصص. الاعتماد على مورّد واحد (NVIDIA) لأكثر من 80% من رقائق حوسبة الذكاء الاصطناعي يمثل خطراً استراتيجياً يسعى المزودون الكبار لمعالجته بنشاط:
وحدات TPU من Google هي البديل الأكثر نضجاً، حيث يقدم TPU v5 أداءً تنافسياً للتدريب والاستدلال. تستخدم Google وحدات TPU داخلياً لتدريب جميع نماذج Gemini وتقدمها للعملاء الخارجيين عبر Cloud.
Amazon Trainium2 هو رقاقة تدريب الذكاء الاصطناعي المخصصة من AWS، يقدم 4 أضعاف أداء Trainium1 بتكاليف وحدة أقل. متاح للاستخدام العام منذ ديسمبر 2024، تتموضع مجموعات Trainium2 كمنافسة من حيث التكلفة لـ NVIDIA في التدريب واسع النطاق. أعلنت AWS عن Trainium3 أواخر 2025، واعدة بقفزة أداء جيلية جديدة.
Microsoft Maia 100 هو مسرّع الذكاء الاصطناعي المخصص من Azure، صُمم بمساهمة من OpenAI لتحسين بنى النماذج وأنماط الاستدلال المحددة التي تنشرها OpenAI. ومع ذلك، ظل النشر الإنتاجي واسع النطاق محدوداً، وتأخر الجيل التالي Maia 200 إلى عام 2026 بسبب تغييرات في التصميم ومشاكل في التوظيف.
AMD MI300X هو المنافس الرئيسي لطرف ثالث لـ NVIDIA، يقدم أداء حوسبة خام تنافسياً بنقاط سعر أقل. حقق AMD تقدماً ملحوظاً مع Microsoft وMeta وOracle، رغم أن منظومة برمجيات CUDA من NVIDIA تبقى عائقاً رئيسياً أمام التحول.
Intel Gaudi 3 يستهدف الشريحة الحساسة للسعر من سوق حوسبة الذكاء الاصطناعي، يقدم أداءً خاماً أقل من NVIDIA H100 لكن بتكلفة أقل بكثير لكل رقاقة.
يعني اتجاه التنويع أنه بحلول 2027-2028، سيكون سوق GPU السحابي أقل هيمنة بكثير لـ NVIDIA مما هو عليه اليوم — مما يخلق مزيداً من المنافسة السعرية ويقلل من مخاطر عنق زجاجة الإمداد.
الواقع المالي: الربحية والمخاطر
يواجه منافسو GPU السحابي توتراً مالياً جوهرياً: يجب عليهم الالتزام بنفقات رأسمالية ضخمة (شراء GPU وبناء مراكز البيانات) بناءً على توقعات طلب قد تتغير بسرعة إذا تراجعت دورات الاستثمار في الذكاء الاصطناعي.
كشف نشرة الطرح العام لـ CoreWeave حجم هذا الرهان: 8.7 مليار دولار في الممتلكات والمعدات، معظمها ممول بالديون. قُدرت معدلات استخدام GPU على مستوى الصناعة بأكثر من 90% خلال طفرة البنية التحتية الحالية للذكاء الاصطناعي، رغم أن أرقام الاستخدام المحددة لم تُفصح عنها في ملف CoreWeave. إذا استمرت هذه المعدلات، فإن الاقتصاديات ممتازة. أما إذا انخفض الطلب — بسبب تباطؤ استثمارات الذكاء الاصطناعي أو تحسينات كفاءة النماذج التي تقلل الحاجة للحوسبة أو تحول العملاء نحو السيليكون المخصص — فقد يصبح عبء الديون غير مستدام.
التشابه مع بناء البنية التحتية للاتصالات في أواخر التسعينيات مقلق: استثمارات رأسمالية ضخمة مبنية على توقعات طلب تبين في نهاية المطاف أنها كانت متفائلة، تلتها موجة إفلاسات. قد يتجنب سوق GPU السحابي هذا المصير إذا استمر الطلب على الذكاء الاصطناعي في مسار نموه الحالي — لكن الخطر حقيقي ويجب أن يفهمه المستثمرون والعملاء الذين يقيّمون التزامات طويلة الأمد تجاه المزودين المنافسين.
إعلان
رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — لا تمتلك الجزائر حالياً بنية تحتية سحابية GPU؛ الوصول إلى المزودين الدوليين ممكن لكنه محدود بسبب عرض النطاق والتأخير وقيود الدفع |
| البنية التحتية جاهزة؟ | لا — لا تمتلك الجزائر بنية تحتية سحابية GPU محلية؛ قد يغير مركز البيانات للذكاء الاصطناعي بوهران (قيد التطوير) هذا الوضع، لكن الخيارات الحالية تتطلب استخدام مزودين دوليين |
| المهارات متوفرة؟ | متوسطة — يستطيع الباحثون والمطورون الجزائريون في الذكاء الاصطناعي استخدام منصات GPU السحابية؛ القيد هو التكلفة والوصول وليس المهارات |
| الأفق الزمني | 18-36 شهراً — إلى حين وجود بنية تحتية GPU محلية، على فرق الذكاء الاصطناعي الجزائرية استخدام السحابات GPU الدولية (أسعار Lambda متاحة)؛ يمكن أن يوفر مشروع مركز البيانات بوهران حوسبة GPU سيادية بحلول 2028 |
| أصحاب المصلحة الرئيسيون | وزارة الاقتصاد الرقمي، الوكالة الفضائية الجزائرية، مختبرات أبحاث الذكاء الاصطناعي الجامعية، Sonatrach (الذكاء الاصطناعي لتحسين الطاقة)، الشركات الناشئة في الذكاء الاصطناعي، فريق مشروع مركز البيانات بوهران |
| نوع القرار | استراتيجي + بنية تحتية — بناء الجزائر لقدرة حوسبة GPU سيادية هو قرار استراتيجي وطني له تداعيات على السيادة في الذكاء الاصطناعي والقدرة البحثية |
خلاصة: تعتمد قدرة الجزائر على المشاركة في ثورة الذكاء الاصطناعي جزئياً على الوصول إلى حوسبة GPU. اليوم، يجب على الباحثين والشركات الناشئة الجزائرية في مجال الذكاء الاصطناعي استئجار الحوسبة من مزودين دوليين — تقدم Lambda Labs وTogether AI أكثر الأسعار إتاحة. يمثل مركز البيانات المخطط للذكاء الاصطناعي بوهران فرصة الجزائر لبناء بنية تحتية سيادية لحوسبة GPU، مما سيتيح تدريب نماذج الذكاء الاصطناعي محلياً ويقلل الاعتماد على المزودين السحابيين الأجانب ويجذب استثمارات الذكاء الاصطناعي. ينبغي للجزائر دراسة نموذج Nebius (السحابة الأوروبية السيادية للذكاء الاصطناعي) كمرجع لبناء بنية تحتية وطنية لحوسبة الذكاء الاصطناعي تخدم الطلب المحلي والإقليمي.
المصادر
- CoreWeave — ملف S-1 للطرح العام
- CoreWeave — إعلان تسعير الطرح العام
- CNBC — رحلة CoreWeave من 7 سنوات إلى الطرح العام
- Blackstone — تمويل ديون CoreWeave بـ 7.5 مليار دولار
- NVIDIA — نتائج السنة المالية 2025
- Lambda Labs — منصة GPU السحابية
- Crusoe Energy — إعلان تمويل Series E
- Together AI — سحابة الذكاء الاصطناعي مفتوحة المصدر
- DCD — Voltage Park تستحوذ على 24,000 وحدة H100 GPU
- Nebius — السحابة الأوروبية للذكاء الاصطناعي
- AWS — التوفر العام لـ Trainium2
- Google Cloud — TPU v5p
- AMD — Instinct MI300X
- Microsoft — Inside Maia 100
إعلان