على مدى عقد كامل، كانت العقيدة السائدة في تكنولوجيا المعلومات المؤسسية واضحة لا لبس فيها: افترض كل شيء. جرّد الأجهزة، وشارك الموارد، وادفع بالدقيقة. كان برنامج المراقبة الافتراضية (Hypervisor) البطل المجهول لعصر الحوسبة السحابية، إذ أتاح لـ AWS وAzure وGoogle تقسيم الجهاز الفيزيائي الواحد إلى عشرات النسخ الافتراضية المرنة والقابلة للنقل. كان ذلك فعّالاً ومرناً ومربحاً بصورة هائلة للمزودين الكبار. ثم جاء الذكاء الاصطناعي — لتتهاوى العقيدة تماماً.
كشف تدريب نماذج اللغة الكبيرة وتشغيل خطوط أنابيب الانتشار وتقديم الاستدلال الفوري على نطاق واسع عن حقيقة جوهرية ظل المدافعون عن الافتراض الكامل يخفونها طوال عقد: لتجريد الأجهزة ثمن حقيقي، وفيما يتعلق بأعباء عمل GPU المكثفة، هذا الثمن ليس نظرياً. يظهر في درجات الأداء ومدد التدريب وفواتير الحوسبة السحابية. والنتيجة واحدة من أكثر الاتجاهات مفاجأة في بنية 2026 التحتية: عاد bare metal بقوة، مدفوعاً لا بمسؤولي الأنظمة القدامى المتشككين في برامج المراقبة الافتراضية، بل بمهندسي الذكاء الاصطناعي الذين أجروا الحسابات بدقة.
ما تكلفه الافتراضية فعلياً على وحدات GPU
حين تستأجر جهازاً افتراضياً مزوداً بـ GPU من مزود سحابي كبير، فأنت لا تحصل على وصول مباشر إلى وحدة GPU. ثمة طبقة Hypervisor تتوسط بين حمل عملك والشرائح الإلكترونية. بالنسبة للحوسبة بالمعالج المركزي (CPU)، تكاد هذه الأعباء الإضافية تكون غير مرئية — إذ أصبحت الافتراضية بالغة الكفاءة في تجريد دورات المعالج. أما بالنسبة لوحدات GPU، فالمشهد أكثر تعقيداً.
تُجزئ تقنيات افتراض GPU مثل vGPU من NVIDIA وتقنية MIG (Multi-Instance GPU) البطاقة الفيزيائية لمشاركتها بين مستأجرين متعددين. يجدي هذا للأعباء الاستدلالية ذات الأحمال المعتدلة والمتوقعة. غير أن التدريب — حيث تحتاج إلى إنتاجية مستمرة وثابتة عبر آلاف أنوية CUDA، وترابطات NVLink سريعة بين وحدات GPU، وعرض نطاق ترددي حتمي للذاكرة — تُدخل أي طبقة افتراض اهتزازاً وتفاوتاً في زمن الوصول وانخفاضاً في الإنتاجية. وقد كشفت مقاييس الأداء المستقلة مراراً وتكراراً عن تدهور يتراوح بين 10 و25% في أعباء التدريب الكبير النطاق على نسخ GPU الافتراضية مقارنةً بتكوينات bare metal المعادلة.
فضلاً عن الأداء الخام، ثمة مشكلة الترابطات. يعتمد تدريب الذكاء الاصطناعي الحديث على الاتصال بين GPU بسرعة عالية عبر NVLink (داخل العقدة) وInfiniBand أو RoCE (عبر العقد). هذه الترابطات حساسة للغاية لزمن الوصول على مستوى الميكروثانية. تُدخل طبقات الافتراض والشبكات المشتركة طفرات في زمن الوصول لا يمكن التنبؤ بها، وهي طفرات قادرة على تعطيل مزامنة التدرجات عبر مجموعة التدريب، وإجبار مئات البطاقات في آنٍ واحد على دورات GPU خاملة — وهو مصدر إهدار باهظ التكلفة على نطاق الإنتاج.
صعود موفري خدمة bare metal GPU المتخصصين
أفرز فجوة الأداء سوقاً جديداً، وخلق هذا السوق فئة جديدة من موفري الخدمات السحابية. تُعدّ CoreWeave، المؤسسة عام 2017 كمنجم للعملات الرقمية وتحولت إلى الحوسبة السحابية بالـ GPU عام 2019، من أبرز الأمثلة على ذلك. بحلول عام 2024 جمعت الشركة تمويلاً تجاوز 7.5 مليار دولار وأبرمت عقوداً مع Microsoft وCohere وIBM لتوفير مجموعات NVIDIA H100 وH200 على bare metal بنطاق واسع. وحجتها بسيطة: أجهزة مخصصة، بلا Hypervisor، بأداء NVLink وInfiniBand كامل، وفوترة بالـ GPU-ساعة.
اتبعت Lambda Labs نهجاً مماثلاً، إذ بنت سحابة GPU موجّهة تحديداً لباحثي الذكاء الاصطناعي ومهندسي التعلم الآلي الراغبين في أداء خام دون أعباء طبقات التجريد العامة لـ AWS. ومطلع عام 2025 كانت Lambda تشغّل مجموعات من عقد NVIDIA H100 SXM5 مترابطة عبر نسيج InfiniBand بسعة 3.2 Tbps — تكوينات يستحيل عملياً تقديمها في بيئة افتراضية متعددة المستأجرين.
في أوروبا، وسّعت Hetzner وOVHcloud عروضهما من GPU على bare metal لخدمة شركات الذكاء الاصطناعي الناشئة في السوق المتوسطة ومؤسسات البحث التي تعجز عن تحمّل تسعيرة موفري الخدمات الكبار. ذاعت شهرة التشكيلة bare metal AI لـ OVHcloud، المبنية حول بطاقات NVIDIA A100 وH100، بين مختبرات البحث الفرنسية والألمانية الباحثة عن بنية تحتية متوافقة مع GDPR مع عزل كامل للأجهزة. وتقدم Equinix Metal (المعاد تسميتها والمندمجة في منصة Equinix الأشمل) خدمة bare metal كحزمة اتصال — تُنشئ حوسبة مخصصة بجانب شبكة الترابط العالمية، مما يتيح للشركات تشغيل أعباء الذكاء الاصطناعي على أجهزة مملوكة مع الاحتفاظ بوصول شبكي بسرعة السحابة.
الموفرون الكبار يردّون — جزئياً
لم تغفل AWS وAzure وGoogle عن إشارة bare metal. يقدم الثلاثة الآن أنواعاً من النسخ المخصصة التي توفر أداءً شبه bare metal بتعطيل معظم أعباء الـ Hypervisor. تمنح نسخ EC2 “bare metal” من AWS (أنواع بلاحقة `.metal`) العملاءَ وصولاً مباشراً للأجهزة في حالات استخدام محددة. أما نسخ A3 من Google، المبنية على GPU NVIDIA H100 المترابطة عبر نسيج Google المكافئ لـ NVLink، فتُموضَع صراحةً للتدريب الذكاء الاصطناعي واسع النطاق.
بيد أن الموفرين الكبار يواجهون توتراً بنيوياً. يقوم نموذج تسعيرهم وتوظيف مواردهم بأكمله على التعددية المستأجرة والتجريد. وتقديم bare metal حقيقي على نطاق واسع يقوض الكفاءة التي تصنع هوامشهم الربحية. لذا تميل عروض bare metal للموفرين الكبار إلى أن تكون أغلى بالـ GPU-ساعة من الموفرين المتخصصين، وتفرض التزامات حد أدنى أطول وتوفر مرونة جدولة أقل.
وتمثّل إجابة الموفرين الكبار في الاستثمار في شرائح مخصصة تتجاوز مشكلة افتراض GPU كلياً. صُمِّمت AWS Trainium وInferentia وTPU من Google وشرائح Maia من Microsoft لتعمل كمسرّعات مخصصة لا موارد مشتركة. يمنح التدريب على مجموعات TPU أو Trainium أداءً مقارناً بتكوينات NVIDIA bare metal دون عقوبات الافتراض ذاتها — غير أن ذلك يستلزم نقل أعباء العمل بعيداً عن CUDA الذي يبقى نموذج البرمجة السائد.
إعلان
الاقتصاد: متى يتفوق Bare Metal؟
لا تنتمي كل أعباء عمل الذكاء الاصطناعي إلى bare metal. يتوقف الحساب على معدل الاستخدام ومدة الحمل والحساسية لتفاوت الأداء.
لخدمة الاستدلال — حيث يكون النموذج مدرّباً بالفعل وتحتاج إلى الاستجابة لاستدعاءات API — غالباً ما تكون الأجهزة الافتراضية GPU المشتركة أو حتى استدلال CPU (للنماذج الأصغر) مجدية اقتصادياً. الطلب متذبذب، والإفراط في تجهيز مجموعة bare metal للاستدلال يعني الدفع مقابل دورات GPU خاملة، وعبء زمن الوصول من طبقة Hypervisor هامشي على مستوى استدعاء API.
تصبح الحجة لصالح bare metal مقنعة حين: تمتد تشغيلات التدريب أياماً أو أسابيع؛ وحين تُجري تدريباً موزعاً عبر عقد متعددة تكون فيها أداء الترابطات حاسمة؛ وحين تُجري اجتياحات فائقة المعاملات أو خطوط أنابيب تدريب مستمرة تعمل باستخدام GPU مرتفع باستمرار؛ أو حين تُفرض متطلبات تنظيمية أو عزل بيانات تستوجب أجهزة بمستأجر واحد.
قاعدة عملية متداولة في أوساط البنية التحتية: إن كان متوسط استخدام GPU يتجاوز 70% لفترات مستمرة، يكسب bare metal شبه دائماً على صعيد التكلفة الإجمالية للملكية. دون ذلك العتبة، غالباً ما تُبرر مرونة الأجهزة الافتراضية المشتركة ومرونتها — لا سيما لأعباء الطفرات — مقايضة الأداء.
ما يعنيه هذا لاستراتيجية البنية التحتية في 2026
يُعيد عودة bare metal تشكيل طريقة تفكير فرق الذكاء الاصطناعي في حزمة الحوسبة لديها. انتهى عهد الاختيار الافتراضي لأول نسخة GPU مُدرجة على AWS. بات مهندسو البنية التحتية في الشركات ذات الطابع الذكاء الاصطناعي يُجرون عمليات شراء مخصصة — يتفاوضون على حجوزات bare metal طويلة المدى مع موفرين متخصصين كـ CoreWeave وLambda، ويستخدمون الأجهزة الافتراضية للموفرين الكبار في التطوير والتجربة، ويحتفظون بالأجهزة المملوكة أو المستضافة في مراكز بيانات خارجية لتشغيلات التدريب الإنتاجية.
والنتيجة مشهد سحابي أكثر تنوعاً. تُوجَّه الأحمال وفق احتياجاتها المحددة: أجهزة افتراضية رخيصة للتجربة، ومجموعات bare metal للتدريب، وواجهات API استدلال عديمة الخادم للخدمة محدودة الحجم. باتت الاستراتيجيات متعددة السحب والهجينة، التي ظلت قديماً حلاً بلا مشكلة، تحمل تبريراً تقنياً حقيقياً في مجال بنية الذكاء الاصطناعي التحتية.
بالنسبة للموفرين الكبار، التحدي وجودي بمعنى ضيق لكنه ذو دلالة: عملاء الذكاء الاصطناعي الأعلى قيمة والأعلى هامشاً هم بالضبط الأكثر ميلاً إلى توجيه أكبر إنفاقهم الحوسبي بعيداً عن السحابة العامة نحو bare metal متخصص أو شرائح مخصصة. الشركات التي بنت عصر السحابة على قناعة أن التجريد دائماً هو الأفضل تتعلم اليوم، بتكلفة باهظة، أن الفيزياء أحياناً لا توافق.
إعلان
رادار القرار (منظور الجزائر)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — النظام البيئي للذكاء الاصطناعي الجزائري في مرحلة مبكرة، لكن مشروع مركز البيانات في وهران والاستراتيجية الوطنية للذكاء الاصطناعي يجعلان خيارات البنية التحتية واقعية بشكل متزايد |
| البنية التحتية جاهزة؟ | جزئياً — يوجد وصول للسحابة الدولية عبر الموفرين الأجانب، لكن لا توجد عروض bare metal GPU محلية؛ زمن الوصول إلى مراكز البيانات الأوروبية (OVHcloud فرنسا، Hetzner ألمانيا) مقبول لكثير من الأحمال |
| المهارات متوفرة؟ | جزئياً — مجتمع تعلم الآلة في نمو، لكن الخبرة العميقة في إدارة مجموعات GPU على bare metal في نطاق واسع نادرة؛ معظم المواهب ملمّة بمفاهيم تجريد السحابة |
| الأفق الزمني للعمل | 12-24 شهراً — ذو صلة بمختبرات البحث الجامعية وأي شركة ناشئة تبدأ تدريب ذكاء اصطناعي جاداً؛ فوري بالنسبة لقرارات الشراء من السحابة الدولية |
| الجهات المعنية الرئيسية | وزارة التعليم العالي والبحث العلمي (ميزانيات الحوسبة البحثية)، CERIST، مؤسسو شركات الذكاء الاصطناعي الناشئة، مدراء تقنية المعلومات في المؤسسات الكبرى المبادرة بتجارب الذكاء الاصطناعي، قادة مشروع مركز البيانات في وهران |
| نوع القرار | استراتيجي / تعليمي |
الخلاصة: ينبغي لفرق الذكاء الاصطناعي الجزائرية المنفقة على GPU السحابي أن تفهم مقايضة bare metal مقابل الأجهزة الافتراضية قبل الالتزام بأي موفر — فتوجيه أعباء التدريب نحو موفري bare metal الأوروبيين كـ OVHcloud أو Hetzner يمكن أن يوفر أداءً أفضل ملحوظاً لكل دولار مقارنةً بالأجهزة الافتراضية لدى الموفرين الكبار. ومع تطور البنية التحتية للحوسبة السيادية في الجزائر، ستكون هذه المعرفة المعمارية أساسية لقرارات تصميم مراكز البيانات المحلية.
المصادر والقراءات الإضافية
- CoreWeave تجمع 7.5 مليار دولار لتطوير بنيتها التحتية للذكاء الاصطناعي — TechCrunch
- Bare Metal مقابل الأجهزة الافتراضية لأعباء عمل الذكاء الاصطناعي — The New Stack
- معمارية NVLink وInfiniBand في NVIDIA H100 — NVIDIA Developer Blog
- OVHcloud توسع تشكيلة bare metal GPU للبحث الأوروبي — OVHcloud Blog
- مقاييس أداء Lambda Labs GPU Cloud: أداء مجموعة H100 SXM5 — Lambda Labs Blog
- نسخ Google A3 وحجة تحسين GPU لدى الموفرين الكبار للذكاء الاصطناعي — InfoQ





إعلان