غرفة الخوادم التي تتخيلها في ذهنك لم تعد موجودة. انسَ الصفوف المنظّمة من الأجهزة الطنّانة خلف الجدران الزجاجية، والممرات الباردة والأضواء الوامضة التي عرّفت عقدين من الحوسبة السحابية. المنشآت التي تُبنى الآن لتشغيل الذكاء الاصطناعي لا تشبه ذلك البتة. إنها أكثر ضجيجاً وحرارةً ورطوبةً وأعلى تكلفةً بكثير. تستهلك من الكهرباء ما يكفي لتغذية مدن صغيرة. والشركات التي تبنيها تنفق أموالاً أكثر وبوتيرة أسرع من أي وقت مضى في تاريخ التكنولوجيا.
باختصار: تعمل ثورة الذكاء الاصطناعي على نوع جديد من البنية التحتية المادية. تنفق شركات الحوسبة الفائقة مجتمعةً ما يزيد عن 650 مليار دولار في عام 2026 على مراكز بيانات محسّنة للذكاء الاصطناعي تتميز بالتبريد السائل وتصاميم خزائن مخصصة توفر 120-230 كيلوواط لكل خزانة، وبنى NVIDIA DGX SuperPOD. هذا ليس تحديثاً للمنشآت القائمة — إنه إعادة اختراع شاملة لمفهوم مركز البيانات.
مفهوم مصنع الذكاء الاصطناعي
Jensen Huang، الرئيس التنفيذي لشركة NVIDIA، يصحّح الناس منذ عامين حتى الآن. في مؤتمر Computex 2025، أعلن أن مراكز بيانات الذكاء الاصطناعي “توصف بشكل غير دقيق” — فهي في الحقيقة مصانع للذكاء الاصطناعي. هذا التمييز مهم: تُطبّق الطاقة على مصنع الذكاء الاصطناعي، فينتج شيئاً ذا قيمة. تُسمى هذه المخرجات رموزاً (tokens).
إعادة التسمية ليست مجرد تسويق. مركز البيانات التقليدي يخزّن البيانات ويقدّمها. يستجيب للطلبات. أما مصنع الذكاء الاصطناعي فيُجري الحوسبة بشكل مستمر. يستهلك مدخلات خام — الكهرباء، مياه التبريد، بيانات التدريب — وينتج مخرجات: أوزان النماذج، نتائج الاستدلال، النصوص والصور المولّدة. التشبيه بالتصنيع الصناعي دقيق: هذه منشآت إنتاجية لها مدخلات وإنتاجية ومقاييس عائد.
وحجم الإنتاج مذهل. في المنتدى الاقتصادي العالمي في Davos في يناير 2026، عرض Huang سلسلة التوريد: TSMC تبني 20 مصنع رقائق جديداً، وFoxconn وWistron وQuanta تبني 30 مصنع حواسيب جديداً، تغذّي جميعها مصانع الذكاء الاصطناعي. هذه ليست إعلانات تخمينية. البناء بدأ. الخرسانة تُصبّ.
ثورة التبريد السائل
التحوّل البنيوي الأكبر في مراكز بيانات الذكاء الاصطناعي هو الإدارة الحرارية. التبريد الهوائي التقليدي — دفع الهواء البارد عبر الأرضيات المرتفعة والممرات الساخنة — لا يستطيع التعامل مع كثافات الحرارة التي ينتجها عتاد الذكاء الاصطناعي الحديث. تستهلك خزانة NVIDIA GB200 NVL72 حوالي 120 كيلوواط من الطاقة، يُدار 115 كيلوواط منها بالتبريد السائل و17 كيلوواط بالتبريد الهوائي. الجيل التالي، Vera Rubin VR200 NVL72، من المتوقع أن يصل إلى 230 كيلوواط لكل خزانة في تكوين Max P. للسياق، تستهلك خزانة خادم مؤسسي قياسية 7-15 كيلوواط.
عند هذه الكثافات الطاقية، التبريد الهوائي ليس غير كافٍ فحسب — بل مستحيل فيزيائياً. لا يستطيع الهواء امتصاص الحرارة ونقلها بالسرعة الكافية. الحل هو التبريد السائل، وقد انتقلت الصناعة من التجارب إلى البنية المعيارية بسرعة ملحوظة.
يستخدم نظام NVIDIA DGX SuperPOD، البنية المرجعية للشركة لنشر الذكاء الاصطناعي على نطاق واسع، حلاً تبريدياً هجيناً. المكونات الأكثر استهلاكاً للطاقة — وحدات معالجة الرسومات (GPU) والمعالجات المركزية (CPU) — تُبرَّد مباشرةً بالسوائل، حيث يتدفق سائل التبريد عبر ألواح باردة مثبتة على الرقائق. المكونات الأقل كثافة لا تزال تستخدم التبريد الهوائي. النتيجة نظام يتعامل مع أحمال حرارية شديدة مع الحفاظ على الموثوقية التي يطلبها العملاء المؤسسيون.
يستجيب السوق وفقاً لذلك. من المتوقع أن ينمو سوق التبريد السائل لمراكز البيانات من حوالي 6.6 مليار دولار في 2026 إلى ما بين 25 و38 مليار دولار بحلول أوائل الثلاثينيات، بمعدلات نمو سنوية مركبة تتراوح بين 20% و29% حسب التوقعات. بالفعل، نفّذت 22% من مراكز البيانات عالمياً شكلاً من أشكال التبريد السائل، وهذا الرقم يرتفع مع كل منشأة ذكاء اصطناعي جديدة تدخل الخدمة.
في ديسمبر 2025، أعلنت Siemens وnVent عن بنية مرجعية مشتركة مصمّمة خصيصاً لمراكز بيانات NVIDIA للذكاء الاصطناعي، تستهدف مواقع فائقة الحجم بقدرة 100 ميغاواط مبنية حول مجموعات DGX SuperPOD كبيرة ومبرّدة بالسوائل. يدمج التصميم القادر على المستوى الثالث (Tier III) أنظمة Siemens الكهربائية والأتمتة الصناعية مع تقنية التبريد السائل من nVent. هذه بنية تحتية مصمّمة من الأساس — ليست معدّلة ولا مكيّفة، بل مهندسة تحديداً لأحمال عمل الذكاء الاصطناعي.
داخل نظام DGX SuperPOD
نظام NVIDIA DGX SuperPOD هو وحدة البناء الأساسية للبنية التحتية الحديثة للذكاء الاصطناعي. إنه نظام على مستوى الخزانة مصمّم للتدريب والاستدلال معاً، ومحسّن لتعظيم الأداء لكل دولار ولكل واط.
تحتوي خزانة GB200 NVL72 واحدة على 72 وحدة معالجة رسومات Blackwell و36 معالجاً مركزياً Grace متصلة عبر NVLink، موزّعة على 18 صينية حوسبة في هيكل موحّد مبرّد بالسوائل. يوفر نظام مفاتيح NVLink سعة 130 تيرابايت في الثانية من اتصالات وحدات معالجة الرسومات منخفضة زمن الاستجابة، مما يجعل نطاق الـ72 وحدة يعمل بشكل أساسي كمسرّع ضخم واحد. تتصل عدة خزائن عبر شبكات عالية النطاق لتشكيل SuperPOD. وتتوسع عدة أنظمة SuperPOD إلى مصانع ذكاء اصطناعي.
البنية لا تتعلق بالحوسبة الخام فقط. يحدّد التصميم المرجعي من NVIDIA كل عنصر في المنشأة: توصيل الطاقة، حلقات التبريد، نسيج الشبكات، طبقات التخزين، وبرمجيات الإدارة. طوّرت Schneider Electric تصاميم بنية تحتية مطابقة — أول تصميم مرجعي متكامل لإدارة الطاقة والتحكم في التبريد السائل في الصناعة باستخدام بنية MQTT قابلة للتوصيل والتشغيل تربط بين التكنولوجيا التشغيلية وأنظمة تكنولوجيا المعلومات. يتيح هذا للمشغّلين الاستفادة من البيانات من كل طبقة لتحسين الأداء.
أول نشر فعلي لنظام DGX B300 SuperPOD أنجزته شركة الأدوية العملاقة Eli Lilly. يتألف النظام المسمّى “LillyPod” من 1,016 وحدة معالجة رسومات Blackwell توفر أكثر من 9,000 بيتافلوبس من أداء الذكاء الاصطناعي. تم تجميعه في أربعة أشهر وكُشف عنه في حدث NVIDIA GTC في Washington, D.C. أواخر أكتوبر 2025. تستخدم Lilly النظام لاكتشاف الأدوية بالذكاء الاصطناعي، وتدريب نماذج أساسية طبية حيوية على 700 تيرابايت من بيانات الجينوم — مما يثبت أن مصانع الذكاء الاصطناعي ليست حكراً على شركات التكنولوجيا.
مشروع البناء بمئات المليارات
الأرقام تكاد تكون غير قابلة للاستيعاب. وفقاً لتقارير CNBC في فبراير 2026، تتّجه Alphabet وMicrosoft وAmazon وMeta لإنفاق ما بين 635 و665 مليار دولار كنفقات رأسمالية في سنواتها المالية 2026. عند إضافة هدف Oracle البالغ 50 مليار دولار، يقترب الرقم الإجمالي من 690 مليار دولار. يمثل ذلك زيادة تتراوح بين 67% و74% عن مستويات إنفاق 2025.
تتصدر Amazon بنفقات رأسمالية متوقعة في 2026 تبلغ 200 مليار دولار. تليها Alphabet بمبلغ 175-185 مليار دولار. تتّجه Microsoft نحو ما يقارب 145 مليار دولار بناءً على معدل إنفاقها الفصلي الحالي. وأعلنت Meta عن 115-135 مليار دولار. يذهب ما يقارب 75% من هذا الإنفاق مباشرةً إلى بنية الذكاء الاصطناعي التحتية — الرقائق والخوادم وأنظمة التبريد والمنشآت التي تحتضنها.
صاغ Satya Nadella، الرئيس التنفيذي لـMicrosoft، الرهانات في المنتدى الاقتصادي العالمي في Davos في يناير 2026. اقترح مؤشراً اقتصادياً كلياً جديداً — “الرموز لكل دولار لكل واط” — وجادل بأن نمو الناتج المحلي الإجمالي في أي مكان سيرتبط ارتباطاً مباشراً بتكلفة الطاقة في استخدام الذكاء الاصطناعي. وأضاف تحذيراً يتجاوز Silicon Valley: “سنفقد بسرعة حتى الإذن الاجتماعي لأخذ شيء مثل الطاقة، وهو مورد نادر، واستخدامه لتوليد هذه الرموز، إذا لم تكن هذه الرموز تُحسّن النتائج الصحية والتعليمية وكفاءة القطاع العام.”
نصف إنفاق Microsoft خارج الولايات المتحدة. أعلنت الشركة عن أكبر استثمار لها على الإطلاق في آسيا — 17.5 مليار دولار على مدى أربع سنوات في الهند — لتعزيز البنية التحتية السحابية والذكاء الاصطناعي، بما في ذلك منطقة فائقة الحجم جديدة ضخمة في Hyderabad من المقرر إطلاقها منتصف 2026. هذه ليست بنية تحتية أمريكية يتم تصديرها. إنها بنية تحتية عالمية تُبنى حيثما تكون الطاقة ميسورة التكلفة واللوائح مواتية.
إعلان
الطاقة: القيد الجديد
كل محادثة حول مراكز بيانات الذكاء الاصطناعي تصل في النهاية إلى نفس العنق الزجاجة: الكهرباء. مصنع ذكاء اصطناعي يستهلك 100 ميغاواط يحتاج إلى طاقة بقدر ما تحتاجه مدينة يبلغ عدد سكانها 80,000 نسمة. أكبر المنشآت قيد البناء ستسحب أكثر من جيغاواط — تقترب من إنتاج محطة طاقة نووية.
هذا يعيد تشكيل سياسة الطاقة عالمياً. شركات المرافق التي أمضت عقوداً تخطط لنمو تدريجي في الطلب تتلقى فجأة طلبات لمئات الميغاواط من الطاقة الثابتة. يعيد مشغّلو الشبكات تقييم قوائم انتظار الربط. الطاقة النووية، المهمّشة طويلاً، أصبحت محبوبة شركات الحوسبة الفائقة الباحثة عن طاقة حمل أساسي خالية من الكربون. في سبتمبر 2024، وقّعت Constellation Energy وMicrosoft اتفاقية شراء طاقة لمدة 20 عاماً لإعادة تشغيل الوحدة 1 في Three Mile Island، لإعادة 800 ميغاواط من القدرة النووية إلى الخدمة بحلول 2028. واستثمرت Amazon وGoogle في مفاعلات نووية صغيرة معيارية.
تمتلك Microsoft وحدها تراكماً بقيمة 80 مليار دولار من طلبات Azure لا تستطيع تلبيتها لأنها لا تجد ما يكفي من الكهرباء لتشغيل وحدات معالجة الرسومات الخاصة بها. يمتد تحدي الطاقة إلى ما وراء التوليد ليشمل التوزيع. كان بالإمكان إنشاء مراكز البيانات التقليدية في أي مكان تقريباً يتوفر فيه اتصال ألياف ضوئية جيد. أما مصانع الذكاء الاصطناعي فيجب أن تُبنى حيث تتوفر طاقة ضخمة وموثوقة. هذا يدفع تحولاً جغرافياً في صناعة مراكز البيانات — بعيداً عن المراكز التقليدية مثل Northern Virginia ونحو مناطق تزخر بالطاقة الكهرومائية أو النووية أو موارد الغاز الطبيعي.
من الأغراض العامة إلى التحسين للذكاء الاصطناعي
التحوّل البنيوي لا يقتصر على التبريد والطاقة. كل طبقة من مكدّس مركز البيانات يُعاد تصميمها لأحمال عمل الذكاء الاصطناعي.
الشبكات انتقلت من سرعات 25/100 جيجابت في الثانية عبر Ethernet إلى 400 جيجابت وما فوق، مع توفير NVLink وInfiniBand من NVIDIA الروابط البينية فائقة انخفاض زمن الاستجابة التي يتطلبها التدريب الموزّع. يمكن لنظام DGX SuperPOD واحد توفير 130 تيرابايت في الثانية من عرض النطاق الثنائي عبر نطاق NVLink الخاص به.
بنى التخزين تحولت من شبكات التخزين (SAN) ذات الأغراض العامة إلى خطوط أنابيب بيانات مصمّمة خصيصاً للذكاء الاصطناعي. تستهلك عمليات التدريب بيتابايتات من البيانات التي يجب بثّها إلى وحدات معالجة الرسومات دون اختناقات. يتطلب تخزين نقاط الحفظ — حفظ حالة النموذج أثناء التدريب للتعافي من أعطال العتاد — طبقات تخزين عالية الإنتاجية ومنخفضة زمن الاستجابة لم تكن موجودة قبل خمس سنوات.
التصميم المادي تغيّر جذرياً. خزائن الذكاء الاصطناعي أعمق وأثقل وتتطلب أرضيات معزّزة. تمتد أنابيب التبريد السائل عبر المنشأة بأكملها. تقود NVIDIA التحول إلى توزيع طاقة التيار المستمر بجهد 800 فولت لدعم خزائن تقترب من ميغاواط واحد وتتجاوزه في نهاية المطاف، مما يقلل خسائر التحويل عند كثافات الطاقة القصوى. البنية التحتية الميكانيكية والكهربائية بالكامل مهندسة حول قيد واحد: إبقاء وحدات معالجة الرسومات مغذّاة بالطاقة ومبرّدة.
سؤال الاستدامة
من المستحيل تجاهل التداعيات البيئية لهذا المشروع البنائي. يمكن لعملية تدريب كبيرة واحدة للذكاء الاصطناعي أن تستهلك من الكهرباء ما تستهلكه 100 منزل أمريكي في عام كامل. اضرب ذلك في آلاف عمليات التدريب ومليارات استعلامات الاستدلال، والبصمة الطاقية هائلة.
كان ردّ الصناعة مزيجاً من الاستثمار الحقيقي والعلاقات العامة. التزمت جميع شركات الحوسبة الفائقة الكبرى بالطاقة المتجددة بنسبة 100%، وإن اختلفت التعريفات والجداول الزمنية. وقّعت Microsoft وGoogle وAmazon مجتمعةً اتفاقيات شراء طاقة نظيفة أكثر من أي قطاع آخر. يبتكر مشغّلو مراكز البيانات في إعادة استخدام الحرارة — التقاط الحرارة المهدرة من أنظمة التبريد السائل واستخدامها في التدفئة المركزية.
لكن التوتر الأساسي يبقى قائماً. قدرات الذكاء الاصطناعي تتوسع مع الحوسبة. الحوسبة تتوسع مع الطاقة. ورغم تحسينات الكفاءة في كل جيل من العتاد، يستمر إجمالي استهلاك الطاقة في النمو لأن الطلب ينمو أسرع من الكفاءة.
ما الذي يأتي بعد ذلك
يعتقد Jensen Huang أن الصناعة في بداية عقد تقريباً من البناء. مستويات الإنفاق الحالية هي، من وجهة نظره في Davos، مجرد جزء من إجمالي السعة التي يحتاجها العالم، مع بنية تحتية بقيمة تريليونات الدولارات لا تزال بحاجة إلى البناء.
الجيل التالي من العتاد — منصة Vera Rubin المتوقع شحنها في النصف الثاني من 2026 — سيدفع كثافات الخزائن إلى ما يتجاوز 230 كيلوواط، مما يتطلب حلول تبريد أكثر قوة. بمجرد أن تقترب الخزائن من 200 كيلوواط، يبدأ توزيع الطاقة الحالي بجهد 54 فولت في مواجهة قيود مادية، مما يدفع التحول إلى بنى التيار المستمر بجهد 800 فولت التي يمكنها دعم خزائن بقدرة ميغاواط واحد وما فوق. التبريد بالغمر الكامل، حيث تُغمر الخوادم بالكامل في سائل عازل كهربائي، ينتقل من عمليات النشر المتخصصة إلى الاعتبار السائد. ستوسّع منشآت الذكاء الاصطناعي الطرفي، الأصغر حجماً ولكن الأكثر توزيعاً، البنية التحتية إلى المدن والمواقع الصناعية.
بنية مراكز بيانات الذكاء الاصطناعي لا تتقارب نحو شكل نهائي. إنها تتطور بسرعة، مدفوعة بقدرات العتاد التي تقفز إلى الأمام مع كل جيل وطلب ينمو بوتيرة أسرع. ما هو واضح أن النموذج القديم — مركز البيانات العام المبرّد بالهواء متعدد الأغراض — هو أثر من حقبة حوسبية تنتهي. مصنع الذكاء الاصطناعي هو البنية التحتية للعقد القادم. ويُبنى الآن بوتيرة وحجم ينافسان بناء الإنترنت نفسه.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — لا تمتلك الجزائر مراكز بيانات فائقة الحجم بعد، لكن فهم بنية الذكاء الاصطناعي التحتية أمر بالغ الأهمية للاستراتيجية الرقمية الوطنية ولجذب الاستثمار السحابي |
| جاهزية البنية التحتية؟ | لا — تفتقر الجزائر إلى قدرة شبكة الطاقة وسلاسل توريد التبريد السائل وكثافة الألياف الضوئية المطلوبة لمنشآت بحجم الذكاء الاصطناعي. يمكن لموارد الغاز في Sonatrach أن تضع الجزائر كمزوّد طاقة لمراكز ذكاء اصطناعي إقليمية |
| توفر المهارات؟ | جزئي — يمتلك المهندسون الجزائريون مهارات عامة في البنية التحتية لتكنولوجيا المعلومات، لكن تصميم مراكز بيانات الذكاء الاصطناعي وهندسة التبريد السائل وتوصيل الطاقة عالي الكثافة تخصصات متقدمة تتطلب تدريباً مستهدفاً |
| الجدول الزمني للعمل | 12-24 شهراً — يجب على الجزائر دراسة استراتيجيات مراكز بيانات الذكاء الاصطناعي الإقليمية (المغرب، المملكة العربية السعودية، الإمارات) وتطوير أطر شراكات الطاقة الآن |
| أصحاب المصلحة الرئيسيون | وزارة الاقتصاد الرقمي، Sonatrach (إمدادات الطاقة)، اتصالات الجزائر، برامج الهندسة الجامعية، وكالات الاستثمار الأجنبي |
| نوع القرار | استراتيجي — تخطيط بنية تحتية طويل الأمد ومواءمة سياسة الطاقة |
باختصار: يمكن لاحتياطيات الغاز الطبيعي الوفيرة في الجزائر وقدراتها المتنامية في الطاقة المتجددة أن تضع البلاد كشريك طاقة لمشغّلي مراكز بيانات الذكاء الاصطناعي المتوسعين عبر شمال أفريقيا والبحر الأبيض المتوسط. نافذة التموضع الاستراتيجي مفتوحة الآن — قبل أن يُغلق المنافسون الإقليميون شراكات مع شركات الحوسبة الفائقة. يجب على صانعي السياسات الجزائريين دراسة نموذج مصنع الذكاء الاصطناعي وتقييم ما يمكنهم تقديمه من أصول في الطاقة والأراضي والاتصال.
المصادر والقراءات الإضافية
- NVIDIA and Partners Define a Repeatable Blueprint for AI Factory Data Centers — Data Center Frontier
- Tech AI Spending Approaches $700 Billion in 2026 — CNBC
- NVIDIA CEO Envisions AI Infrastructure Industry Worth Trillions — NVIDIA Blog
- Energy Costs Will Decide Which Countries Win the AI Race — CNBC
- Lilly Launches LillyPod NVIDIA DGX SuperPOD for Drug Discovery AI — HPCwire
- Siemens and nVent Joint Reference Architecture for NVIDIA AI Data Centers — Siemens Press
- Schneider Electric Unveils New AI Data Centre Reference Designs with NVIDIA — BusinessWire





إعلان