الذكاء الاصطناعيالأمن السيبرانيالبنية التحتيةالمهاراتالسياسةالشركات الناشئةالاقتصاد الرقمي

كيف يعيد الذكاء الاصطناعي التوليدي بناء البنية التحتية السحابية من الأساس

فبراير 23, 2026

Bright data center hallway with GPU server racks and holographic neural network display

المقدمة

أمضت صناعة البنية التحتية السحابية عقديها الأولين في التحسين لنوع واحد من أعباء العمل: تطبيقات الويب عديمة الحالة والقابلة للتوسع الأفقي. كانت النتيجة منظومة استثنائية — مراكز بيانات ضخمة مليئة بخوادم قائمة على وحدات المعالجة المركزية (CPU) وتخزين عالي النطاق وشبكات عالمية — مكّنت الموجة الأولى من التطبيقات السحابية الأصلية.

يكسر الذكاء الاصطناعي التوليدي كل افتراض في ذلك النموذج. يتطلب تدريب الذكاء الاصطناعي مجموعات GPU كبيرة ومترابطة بإحكام لدرجة أنها تضغط على حدود ما يمكن للشبكات توفيره. يتطلب استدلال الذكاء الاصطناعي شرائح متخصصة محسنة لبنيات شبكات عصبية محددة. تتطلب النطاق الترددي للذاكرة في النماذج اللغوية الكبيرة بنيات ذاكرة جديدة. يتطلب استهلاك الطاقة في مراكز بيانات الذكاء الاصطناعي بنية تحتية طاقة جديدة لا تستطيع تصاميم مراكز البيانات التقليدية دعمها.

صناعة البنية التحتية السحابية لا تضيف الذكاء الاصطناعي فوق البنية التحتية الحالية. إنها تعيد البناء من الأساس.

ثورة GPU: قبضة Nvidia ومنافسوها

لم تستفد أي شركة من ثورة الذكاء الاصطناعي التوليدي أكثر من Nvidia. وحدة معالجة الرسوميات (GPU)، المصممة أصلاً لعرض رسوميات ألعاب الفيديو، تبين أنها مناسبة بشكل فريد لعمليات ضرب المصفوفات التي يتطلبها تدريب الشبكات العصبية. أدركت Nvidia هذه الفرصة مبكراً واستثمرت عقوداً في منظومة CUDA البرمجية التي تجعل وحدات GPU الخاصة بها قابلة للبرمجة للحوسبة العامة.

النتيجة: تمتلك Nvidia نحو 80% من حصة السوق في مسرعات الذكاء الاصطناعي لمراكز البيانات. أصبحت وحدة H100 GPU (صدرت 2022) البنية التحتية المحددة للموجة الأولى من الذكاء الاصطناعي التوليدي. توفر Blackwell B100/B200 (2025) أداء استدلال ذكاء اصطناعي أعلى بنحو 4 أضعاف من H100 بكفاءة طاقة مماثلة. كان الطلب على عتاد Blackwell شديداً لدرجة أن مزودي السحابة الرئيسيين واجهوا تأخيرات تسليم لعدة أشهر.

مواصفات Nvidia B200 “Blackwell”:

  • 192 جيجابايت ذاكرة HBM3e (ضعف 80 جيجابايت في H100)
  • 5 بيتافلوبس من أداء الذكاء الاصطناعي (FP4)
  • ربط NVLink بـ 8 مسارات للاتصال بين وحدات GPU المتعددة
  • مصممة للنشر في حوامل NVL72 (72 وحدة GPU مع نسيج NVSwitch)

المنافسون:

  • AMD MI300X: أقوى مسرع ذكاء اصطناعي من AMD — منافس لـ H100 في بعض المعايير، مع 192 جيجابايت ذاكرة HBM3. نشرت Microsoft وحدات MI300X على نطاق واسع؛ وتستخدمها Meta لأعباء الاستدلال. القيد الرئيسي لـ AMD هو منظومتها البرمجية الأقل نضجاً مقارنة بـ CUDA من Nvidia.
  • Google TPUs (v5p): مسرعات الذكاء الاصطناعي المخصصة من Google، تُستخدم داخلياً ومتاحة على Google Cloud. منافسة لـ Nvidia في أعباء عمل محددة، خاصة للتدريب بأطر JAX/TensorFlow.
  • Intel Gaudi 3: مسرع الذكاء الاصطناعي من Intel، مصمم للتنافس مع H100 في نسبة السعر/الأداء. متاح على AWS وسحابة Intel الخاصة. منظومة أقل نضجاً من Nvidia.
  • AWS Trainium/Inferentia: شرائح الذكاء الاصطناعي المخصصة من Amazon — Trainium محسنة للتدريب وInferentia للاستدلال — متاحة على AWS. مقنعة اقتصادياً لأعباء العمل التي يمكن تحسينها لهذه البنيات.
  • Cerebras وGroq وGraphcore: شركات ناشئة متخصصة في شرائح الذكاء الاصطناعي ببنيات فريدة (شرائح بحجم الرقاقة ومعالجات تدفق البيانات) تتفوق على Nvidia في مهام محددة.

مشكلة NVLink/InfiniBand: لماذا مجموعات الذكاء الاصطناعي مختلفة

لا يتطلب تدريب نموذج ذكاء اصطناعي كبير مجرد وحدات GPU كثيرة — بل يتطلب وحدات GPU كثيرة يمكنها التواصل مع بعضها بسرعة استثنائية. السبب الجوهري: يتطلب تدريب النماذج الكبيرة الاحتفاظ بأجزاء من معاملات النموذج على وحدات GPU مختلفة وتبادل التدرجات (الإشارات التي توجه التدريب) باستمرار عبر جميع وحدات GPU في وقت واحد.

الشبكات المعيارية في مراكز البيانات السحابية — Ethernet — غير كافية لهذا الغرض. تستخدم مجموعات تدريب الذكاء الاصطناعي ربطاً عالي الأداء متخصصاً:

NVLink: ربط Nvidia بين وحدات GPU داخل العقدة — يوفر 1.8 تيرابايت/ثانية من النطاق الترددي ثنائي الاتجاه داخل حامل NVL72. هذا أسرع بنحو 100 مرة مما يمكن أن يوفره PCIe (الاتصال المعياري بين CPU وGPU).

InfiniBand (HDR/NDR): بين العقد والحوامل، تستخدم مجموعات الذكاء الاصطناعي شبكات InfiniBand — توفر 400-800 جيجابت/ثانية لكل منفذ، مقارنة بـ 100 جيجابت/ثانية لشبكة Ethernet المعيارية 100GbE. استحواذ Nvidia على Mellanox (المزود الرئيسي لـ InfiniBand) في 2020 منحها السيطرة على البنية التحتية الحيوية للشبكات في مجموعات الذكاء الاصطناعي.

بديل RoCE (الوصول المباشر للذاكرة عبر Ethernet المتقاربة): للمؤسسات التي لا تريد بناء شبكات InfiniBand، يسمح RoCE بالوصول المباشر للذاكرة عن بُعد (RDMA) عبر Ethernet المعياري — يوفر زمن استجابة وإنتاجية أفضل بكثير من Ethernet المعياري لأعباء عمل الذكاء الاصطناعي.

النتيجة: بناء مجموعة تدريب ذكاء اصطناعي ليس مجرد شراء وحدات GPU وتوصيلها بشبكة مركز بيانات معيارية. يتطلب معدات شبكات متخصصة وتصاميم حوامل محددة (تصميم حامل NVL72 مهندس لإدارة الحرارة لـ 72 وحدة GPU مترابطة بإحكام) وبنية تحتية طاقة متخصصة وأنظمة تبريد مخصصة.

ظاهرة السحابة الجديدة: مزودو GPU الخالصون يعطلون السوق

مزودو السحابة الكبار التقليديون (AWS وAzure وGCP) محسنون لأعباء العمل السحابية العامة — بنياتهم ونماذج تسعيرهم وأدوات إدارتهم تعكس هذا. أعباء عمل تدريب الذكاء الاصطناعي لها متطلبات محددة لا يتم تحسينها لدى مزودي السحابة الكبار، مما يخلق فرصة لفئة جديدة من المزودين: “السحابة الجديدة” المركزة حصرياً على حوسبة GPU للذكاء الاصطناعي.

CoreWeave: شركة تعدين عملات مشفرة سابقة تحولت إلى خدمات GPU السحابية وأصبحت واحدة من أسرع شركات السحابة نمواً في التاريخ. تشغل CoreWeave مجموعات Nvidia H100/H200 وBlackwell على نطاق واسع، مع قائمة عملاء تشمل Microsoft (التي يُقال إنها تستخدم CoreWeave لتكملة سعة Azure خلال فترات الطلب المكثف على البنية التحتية للذكاء الاصطناعي) وCohere والعديد من مختبرات الذكاء الاصطناعي. وصل تقييم CoreWeave إلى نحو 19 مليار دولار عند طرحها العام في 2025.

Lambda Labs: تركز على البحث والتدريب المؤسسي للذكاء الاصطناعي، توفر Lambda وصولاً عند الطلب ومحجوزاً لوحدات GPU بتجربة مبسطة لفرق التعلم الآلي. معروفة بتسعير تنافسي على مجموعات H100.

Nebius: مزود GPU سحابي أوروبي انبثق من Yandex، يبني Nebius مجموعات GPU واسعة النطاق في أوروبا — يتموقع كبديل سحابي سيادي للذكاء الاصطناعي لأعباء عمل الذكاء الاصطناعي الأوروبية.

Vast.ai: نموذج سوق يسمح لمالكي GPU بإدراج أجهزتهم، مما يخلق سوقاً ثانوية لحوسبة GPU توفر أسعاراً أقل مقابل ضمانات موثوقية أقل من مزودي السحابة المُدارة.

Together AI: تركز على الاستدلال، توفر الوصول إلى نماذج الذكاء الاصطناعي مفتوحة المصدر بأسعار أقل من خدمات الاستدلال المُدارة المنافسة.

الأثر الجماعي: من المتوقع أن تحقق السحابة الجديدة إيرادات بقيمة 20 مليار دولار في 2026 — حصة سوقية كبيرة في البنية التحتية للذكاء الاصطناعي لم تكن موجودة قبل ثلاث سنوات.

إعلان

سباق تحسين الاستدلال

التحدي التقني الأكثر أهمية اقتصادياً في البنية التحتية للذكاء الاصطناعي هو تحسين الاستدلال — تشغيل النماذج المدربة بأكبر كفاءة ممكنة لتقليل التكلفة لكل مخرج مفيد.

تدريب النموذج تكلفة لمرة واحدة (أو نادرة). الاستدلال — الإجابة على الاستفسارات وتوليد المحتوى ومعالجة المستندات — يعمل باستمرار ويتوسع مع الاستخدام. بالنسبة للشركات التي تنشر الذكاء الاصطناعي على نطاق واسع، تتجاوز تكاليف الاستدلال تكاليف التدريب. يُقال إن OpenAI تنفق مئات الملايين من الدولارات شهرياً على البنية التحتية للاستدلال. كل دولار من تخفيض تكلفة الاستدلال يترجم مباشرة إلى تحسين الهامش أو خفض الأسعار.

تقنيات تحسين الاستدلال الرئيسية المنتشرة على نطاق واسع:

تقليل الدقة (Quantization): تقليل الدقة الرقمية المستخدمة لتمثيل أوزان النموذج. نموذج مدرب بـ FP32 (عائم 32 بت) يمكن نشره غالباً بـ INT8 (عدد صحيح 8 بت) أو حتى INT4 مع فقدان جودة ضئيل، مما يقلل متطلبات الذاكرة وتكلفة الحوسبة بـ 4-8 أضعاف.

تحسين ذاكرة KV Cache: ذاكرة المفاتيح-القيم (المستخدمة في بنيات المحولات لتجنب الحوسبة المتكررة أثناء التوليد) تستهلك ذاكرة GPU كبيرة. تقنيات مثل PagedAttention (طورها مشروع vLLM) تحسن إدارة ذاكرة KV Cache لتحسين كفاءة الذاكرة.

فك التشفير التخميني (Speculative Decoding): استخدام نموذج صغير وسريع لتوليد رموز متعددة تخمينياً، ثم التحقق منها (أو رفضها) بالنموذج الكبير بالتوازي. يوفر تسريعاً في الاستدلال بمقدار 2-3 أضعاف مع تدهور جودة ضئيل.

التجميع (Batching): معالجة استفسارات متعددة في وقت واحد لتعظيم استخدام GPU. التجميع المستمر (إضافة طلبات جديدة ديناميكياً إلى الدفعات قيد المعالجة) هو الآن المعيار للاستدلال عالي الإنتاجية.

تقطير النموذج (Model Distillation): تدريب نماذج أصغر لتقليد سلوك النماذج الأكبر — مما يمكّن النشر على عتاد أقل تكلفة. أثبتت كفاءة DeepSeek أن نماذج أصغر بـ 10-20 مرة من أكبر النماذج الحدودية يمكن أن تؤدي بشكل مماثل في معظم المهام.

شرائح مخصصة للاستدلال: صُممت وحدة معالجة اللغة (LPU) من Groq خصيصاً لاستدلال المحولات — تحقق زمن استجابة حتمي وإنتاجية استثنائية لأعباء الاستدلال تتجاوز أداء GPU. لدى Cerebras وSambaNova وشركات ناشئة أخرى شرائح استدلال متخصصة مماثلة.

بنية التوليد المعزز بالاسترجاع (RAG)

واحدة من أكثر أنماط بنية الذكاء الاصطناعي انتشاراً في 2025-2026 هي التوليد المعزز بالاسترجاع (RAG) — تقنية تمكّن أنظمة الذكاء الاصطناعي من الإجابة على الأسئلة بناءً على قاعدة معرفية محددة (مستندات الشركة وكتالوج المنتجات وأوراق البحث) بدلاً من الاعتماد فقط على المعرفة العامة من التدريب.

يعمل RAG عبر:

  1. عند وصول استفسار، البحث الدلالي في قاعدة بيانات متجهة من التضمينات (تمثيلات رقمية للمستندات/المقاطع) للعثور على السياق ذي الصلة
  2. حقن السياق المسترجع في المطالبة المرسلة للنموذج اللغوي
  3. يولّد النموذج استجابة مرتكزة على المعلومات المسترجعة بدلاً من الهلوسة من بيانات التدريب

تداعيات البنية التحتية السحابية لـ RAG على نطاق واسع كبيرة:

  • قواعد البيانات المتجهة تصبح مكوناً جديداً حاسماً في البنية التحتية — Pinecone وWeaviate وQdrant وChroma وMilvus جميعها تشهد اعتماداً مؤسسياً سريعاً
  • نماذج التضمين (توليد التمثيلات المتجهة) تعمل باستمرار وتضيف تكلفة استدلال
  • البحث الهجين (الجمع بين البحث الدلالي/المتجهي والبحث التقليدي بالكلمات المفتاحية) يتطلب تكاملاً بين قواعد البيانات المتجهة والبنية التحتية للبحث

متعدد الوسائط والفيديو: تحدي البنية التحتية التالي

بُنيت البنية التحتية للذكاء الاصطناعي حتى الآن بشكل أساسي محسنة للنص (النماذج اللغوية) وبدرجة أقل للصور (نماذج الرؤية). الموجة التالية — توليد فيديو الذكاء الاصطناعي على نطاق واسع — ستتطلب حوسبة وتخزيناً أكثر بكثير من البنية التحتية الحالية المهيمن عليها النص.

يتطلب تدريب وتشغيل نماذج توليد الفيديو (Sora وGoogle Veo وRunway وKling وHailuoAI):

  • معالجة وتخزين مجموعات بيانات فيديو ضخمة (الفيديو أكثف بيانياً بـ 1,000 مرة من النص)
  • نماذج بأعداد معاملات أكبر بكثير من نماذج النص
  • استدلال يولّد ثوانٍ من الفيديو يستهلك ثوانٍ من وقت GPU — حوسبة أكثر بكثير لكل رمز مخرج مقارنة بالنص

سيكون الاستثمار في البنية التحتية المطلوب لتوسيع نطاق فيديو الذكاء الاصطناعي إلى نفس إمكانية الوصول مثل نص الذكاء الاصطناعي هائلاً — وهو جارٍ بالفعل.

الخلاصة

ثورة الذكاء الاصطناعي التوليدي لا تضيف مجرد فئة تطبيقات جديدة إلى السحابة — إنها تعيد بناء البنية التحتية السحابية من المسرع فصاعداً. بنيات شرائح جديدة ونسيج شبكات جديد وأنظمة تخزين جديدة وتصاميم مراكز بيانات جديدة ونماذج حوسبة جديدة كلها مدفوعة بالمتطلبات المحددة لأعباء عمل الذكاء الاصطناعي.

الشركات التي تفهم هذه الطبقة التحتية — قيودها واقتصادياتها وحدودها التقنية المتطورة بسرعة — ستكون الأفضل موقعاً لبناء ونشر تطبيقات الذكاء الاصطناعي على نطاق واسع. الشركات التي تتعامل مع البنية التحتية للذكاء الاصطناعي كصندوق أسود ستجد نفسها معتمدة على قرارات الآخرين بشأن ما يبنونه ومتى يبنونه وكم يتقاضون عليه.

طبقة البنية التحتية في ثورة الذكاء الاصطناعي ليست براقة. لكنها أيضاً ليست اختيارية. إنها الأساس الذي يُبنى عليه كل شيء آخر.

إعلان

رادار القرار (المنظور الجزائري)

البُعد التقييم
الصلة بالجزائر متوسطة — رغم أنه من غير المرجح أن تبني الجزائر مجموعات حوسبة فائقة بوحدات GPU، إلا أن فهم اقتصاديات البنية التحتية للذكاء الاصطناعي أمر أساسي للمؤسسات التي تستهلك خدمات الذكاء الاصطناعي وتخطط لاستراتيجية السحابة.
جاهزية البنية التحتية؟ لا — تفتقر الجزائر إلى بنية تحتية سحابية GPU. يجب تشغيل أعباء عمل الذكاء الاصطناعي على منصات مزودي السحابة الكبار الدوليين أو السحابة الجديدة. قد يستفيد الاستدلال الحساس لزمن الاستجابة من عمليات النشر الطرفية الإقليمية مع ظهورها.
المهارات المتاحة؟ جزئية — يوجد مهندسو تعلم آلي لكن إدارة مجموعات GPU وتحسين الاستدلال وهندسة البنية التحتية للذكاء الاصطناعي مهارات متخصصة تتطلب تطويراً مستهدفاً.
الجدول الزمني للعمل 6-12 شهراً — يجب على المؤسسات التي تستخدم الذكاء الاصطناعي تقييم تحسين الاستدلال (تقليل الدقة والتقطير) لتخفيض التكاليف؛ واستكشاف بنيات RAG لإدارة المعرفة المؤسسية.
أصحاب المصلحة الرئيسيون فرق الذكاء الاصطناعي/التعلم الآلي، مهندسو السحابة، مدراء التكنولوجيا الذين يقيّمون استراتيجية الذكاء الاصطناعي، الشركات الناشئة التي تبني منتجات ذكاء اصطناعي، مختبرات الأبحاث الجامعية
نوع القرار تعليمي — فهم البنية التحتية للذكاء الاصطناعي حاسم لاتخاذ قرارات مستنيرة بشأن البناء مقابل الشراء في قدرات الذكاء الاصطناعي

خلاصة سريعة: لا تحتاج المؤسسات الجزائرية إلى بناء بنية تحتية للذكاء الاصطناعي — لكنها تحتاج إلى فهمها. المعرفة بتحسين الاستدلال وبنية RAG وسوق GPU السحابي تؤثر مباشرة على تكاليف وأداء نشر الذكاء الاصطناعي. أعطوا الأولوية لمهارات تحسين الاستدلال وخبرة RAG، التي تقدم قيمة فورية بغض النظر عن مكان تشغيل البنية التحتية.

المصادر والقراءة الإضافية

Leave a Comment

إعلان