جدول المحتويات
- المقدمة: الأساس المادي للذكاء الاصطناعي
- اقتصاد وحدات معالجة الرسومات: هيمنة NVIDIA ومنافسوها
- بناء مراكز البيانات: حجم لم يسبق له مثيل
- توسيع الحوسبة: القوانين التي تدفع السباق
- حروب السحابة: AWS وAzure وGoogle وصراع أحمال الذكاء الاصطناعي
- مشكلة الطاقة: شهية الذكاء الاصطناعي النهمة
- ثورة السيليكون المخصص
- الاستدلال: ساحة المعركة الخفية
- الجغرافيا السياسية للحوسبة
- ما الذي سيحدث بعد ذلك
- رادار القرار
- المصادر والقراءات الإضافية
المقدمة: الأساس المادي للذكاء الاصطناعي
كل محادثة مع ChatGPT، وكل صورة يولّدها Midjourney، وكل سطر شيفرة يقترحه Copilot يعتمد على ركيزة مادية: خوادم مليئة برقائق متخصصة، تُبرّد بأنظمة صناعية، ومتصلة بشبكات عالية النطاق الترددي، ومُشغّلة بكهرباء تُقاس بالميغاواط.
تعمل ثورة الذكاء الاصطناعي على السيليكون والفولاذ. وفي 2026، أصبح سباق بناء البنية التحتية المادية التي تُشغّل الذكاء الاصطناعي أكبر نشر لرأس المال في تاريخ صناعة التقنية.
تجاوز إجمالي إنفاق البنية التحتية للذكاء الاصطناعي من كبرى الشركات السحابية الفائقة — Amazon وMicrosoft وGoogle وMeta — 400 مليار دولار في 2025 ومن المتوقع أن يتجاوز 600 مليار دولار في 2026. هذه ليست استثمارات برمجية. إنها مشاريع بناء: مراكز بيانات بحجم مستودعات، مليئة بوحدات معالجة رسومات تكلف كل منها 30,000-40,000 دولار، تستهلك كهرباء يمكنها تشغيل مدن صغيرة.
باختصار: أصبح سباق البنية التحتية للذكاء الاصطناعي الآن أكبر نشر لرأس المال في تاريخ التقنية، حيث تلتزم الشركات السحابية الفائقة بأكثر من 600 مليار دولار في 2026 وحده. فهم اقتصاد وحدات معالجة الرسومات وبناء مراكز البيانات وقيود الطاقة أمر ضروري لأي شخص يبني أو يستثمر في الذكاء الاصطناعي.
فهم طبقة البنية التحتية هذه ضروري لأي شخص يبني بالذكاء الاصطناعي. الخيارات المتخذة على مستوى العتاد — أي الرقائق تُستخدم، وأين تُبنى مراكز البيانات، وكيف تُدار الطاقة — تحدد أنواع الذكاء الاصطناعي الممكنة، وتكلفتها، ومن يمكنه الوصول إليها.
اقتصاد وحدات معالجة الرسومات: هيمنة NVIDIA ومنافسوها
تسيطر NVIDIA على ما يقارب 80-90% من سوق مسرّعات الذكاء الاصطناعي، مما يجعلها ربما أكثر موقع مهيمن تحتله أي شركة في قطاع تقني حيوي منذ ذروة Intel في عصر الحاسوب الشخصي.
تمثل رقائق الجيل الأحدث للشركة — Blackwell B200 وGB200 — قفزة كبيرة في أداء التدريب والاستدلال. تقدم وحدة B200 واحدة ما يصل إلى 20 بيتافلوبس من حوسبة الذكاء الاصطناعي FP4/FP8 مع 192 جيجابايت من ذاكرة HBM3e. تجمع الرقاقة الفائقة GB200 Grace Blackwell بين وحدتي B200 ومعالج Grace عبر NVLink-C2C، لتقدم ما يصل إلى 20 بيتافلوبس من حوسبة FP8 لكل رقاقة فائقة. يحشو نظام GB200 NVL72 من NVIDIA 72 وحدة معالجة رسومات Blackwell في خزانة واحدة مبرّدة بالسائل مع 360 بيتافلوبس من حوسبة FP8، مستهدفاً عناقيد الحوسبة الضخمة اللازمة لتدريب النماذج الرائدة.
يمتد اقتصاد وحدات معالجة الرسومات إلى ما هو أبعد من مبيعات العتاد. يخلق نظام CUDA البرمجي من NVIDIA — نموذج البرمجة والمكتبات وأدوات المطورين المبنية على مدى 15 عاماً — خندقاً عميقاً كعمق السيليكون نفسه. تدريب نموذج رائد ليس مجرد مسألة امتلاك ما يكفي من وحدات معالجة الرسومات؛ بل يتطلب مكدساً برمجياً تهيمن عليه CUDA.
المنافسون
تمثل MI300X من AMD التحدي الأكثر مصداقية على مستوى وحدات معالجة الرسومات لـ NVIDIA. مع 192 جيجابايت من ذاكرة HBM3 ونطاق ترددي يبلغ 5.3 تيرابايت/ثانية — ذاكرة أكبر بكثير من H100 من NVIDIA — تقدم MI300X مزايا لأحمال الاستدلال حيث تهم سعة الذاكرة. كانت Microsoft Azure وOracle Cloud من أوائل عملاء MI300X على نطاق واسع.
تستهدف Gaudi 3 من Intel سوق مسرّعات الذكاء الاصطناعي بأداء تنافسي لكل دولار، رغم أن التبني كان أبطأ مما كان متوقعاً. خفّضت Intel هدف شحنات Gaudi 3 لعام 2025 بأكثر من 30%، وتحولت استراتيجية الشركة في الذكاء الاصطناعي نحو بنية الجيل القادم Jaguar Shores.
لكن المنافسين الأكثر إرباكاً قد يكونون شركات السيليكون المخصص الناشئة التي تبني رقائق مصممة خصيصاً لأحمال ذكاء اصطناعي محددة بدلاً من حوسبة GPU للأغراض العامة.
بناء مراكز البيانات: حجم لم يسبق له مثيل
توسع مراكز البيانات المدفوع بالطلب على الذكاء الاصطناعي لا سابقة له في البنية التحتية التقنية.
تخطط Meta لإنفاق 115-135 مليار دولار على البنية التحتية في 2026، أي أكثر من ضعف إنفاقها في 2025 البالغ تقريباً 66-72 مليار دولار. جزء كبير يذهب إلى حرم مراكز بيانات بقدرة 2 جيجاواط في Richland Parish، لويزيانا — بالاسم الرمزي Hyperion — الذي سيكون أكبر منشأة ذكاء اصطناعي في موقع واحد على الإطلاق. وصل الإنفاق الرأسمالي لـ Microsoft إلى 80 مليار دولار في السنة المالية 2025، مع تتبع السنة المالية 2026 نحو 120 مليار دولار أو أكثر. التزمت Amazon Web Services بأكثر من 100 مليار دولار لتوسيع مراكز البيانات في 2025، مع ميزانية مذهلة قدرها 200 مليار دولار لعام 2026. أنفقت Alphabet الشركة الأم لـ Google بين 91-93 مليار دولار على البنية التحتية في 2025 وخصصت 175-185 مليار دولار لعام 2026.
هذه الأرقام تستمر في الارتفاع. تتوقع Goldman Sachs أن الذكاء الاصطناعي سيدفع زيادة بنسبة 165% في الطلب على طاقة مراكز البيانات بحلول 2030. إجمالي رأس المال المستثمر في البنية التحتية للذكاء الاصطناعي من قبل أكبر الشركات السحابية الفائقة وحدها من المتوقع أن يتجاوز 600 مليار دولار في 2026.
جغرافيا الحوسبة
لا تُبنى مراكز البيانات عشوائياً. تتجمع قرب ثلاثة أشياء: الكهرباء الرخيصة، والمناخ البارد (للتبريد)، ومحاور شبكات الألياف الضوئية.
تظل شمال فرجينيا أكبر سوق لمراكز البيانات في العالم، حيث تستضيف نحو 13% من القدرة العالمية وحوالي 25% من القدرة في الأمريكتين. لكن ممرات جديدة تبرز. استقطبت وسط تكساس وغرب تكساس بناءات ضخمة من Meta وGoogle وMicrosoft، بفضل الكهرباء الرخيصة والأراضي. تقدم دول الشمال الأوروبي (السويد والنرويج وفنلندا) مناخات باردة وطاقة كهرومائية متجددة. يستثمر الشرق الأوسط — خاصة المملكة العربية السعودية والإمارات العربية المتحدة — بكثافة في سعة مراكز بيانات الذكاء الاصطناعي كجزء من استراتيجيات تنويع اقتصادي أوسع.
بالنسبة للدول النامية، بما فيها الجزائر، تخلق هذه الجغرافيا تحديات وفرصاً. المسافة المادية عن عناقيد الحوسبة الرئيسية تؤثر على زمن الاستجابة والوصول. لكن الطلب المتزايد على الحوسبة الموزعة — خاصة لأحمال الاستدلال التي تستفيد من القرب من المستخدمين — قد يدفع في نهاية المطاف الاستثمار في البنية التحتية في المناطق المحرومة.
توسيع الحوسبة: القوانين التي تدفع السباق
يُدفع سباق البنية التحتية للذكاء الاصطناعي بملاحظة بسيطة: النماذج الأكبر، المُدرّبة على بيانات أكثر بحوسبة أكثر، تؤدي أفضل باستمرار. هذه العلاقة — المعروفة بـ توسيع الحوسبة — صمدت بشكل ملحوظ عبر أجيال النماذج.
أظهرت ورقة قوانين التوسع الأصلية من OpenAI (2020) علاقة أُسّية بين ميزانية الحوسبة وأداء النموذج. حسّنت قوانين Chinchilla للتوسع (2022) هذا بإظهار أن بيانات التدريب يجب أن تتوسع بشكل متناسب مع حجم النموذج. استكشفت أعمال أحدث توسيع حوسبة وقت الاختبار — إنفاق المزيد من الحوسبة أثناء الاستدلال لتحسين جودة الاستنتاج.
اقتصاديات التدريب
تكلفة تدريب نموذج رائد في 2026 تبلغ مئات الملايين من الدولارات — والتكاليف تستمر في الارتفاع. قُدّرت تكلفة تدريب GPT-4 بأكثر من 100 مليون دولار. وبحسب التقارير، تطلب GPT-5 (بالاسم الرمزي Orion) أكثر من 500 مليون دولار لكل عملية تدريب. قد يتجاوز الجيل القادم من النماذج الرائدة مليار دولار في تكاليف التدريب.
تخلق هذه التكاليف حاجزاً طبيعياً للدخول. حفنة فقط من المؤسسات — OpenAI وGoogle وAnthropic وMeta وعدد قليل من المختبرات الصينية — تستطيع تحمل تدريب النماذج الرائدة. هذا التركز يثير أسئلة مهمة حول من يتحكم في أقوى أنظمة الذكاء الاصطناعي وبأي شروط تُتاح.
تقدم البدائل مفتوحة المصدر مثل عائلة Llama من Meta ثقلاً موازناً جزئياً. بإصدار أوزان النموذج علنياً، تمكّن Meta المؤسسات التي لا تستطيع تحمل التدريب الرائد من نشر نماذج قادرة — على الأقل لأحمال العمل التي لا تتطلب أداءً متقدماً.
ما بعد التدريب: ضرورة الاستدلال
تحدٍ توسعي أدق لكنه بنفس الأهمية هو الاستدلال — تشغيل النماذج المُدرّبة لتوليد الاستجابات. بينما التدريب تكلفة لمرة واحدة، فإن تكاليف الاستدلال مستمرة وتتوسع مع الاستخدام. مع انتقال تطبيقات الذكاء الاصطناعي من العروض التوضيحية إلى الإنتاج، يصبح الاستدلال مركز التكلفة المهيمن.
الاقتصاديات مثيرة: خدمة تطبيق ذكاء اصطناعي شائع يمكن أن تكلف ملايين الدولارات شهرياً في الحوسبة. هذا يدفع الابتكار في تحسين الاستدلال — نماذج أصغر، والتكميم، وفك التشفير التخميني، وبنيات خليط الخبراء — ويخلق سوقاً جديداً بالكامل لعتاد الاستدلال المتخصص.
إعلان
حروب السحابة: AWS وAzure وGoogle وصراع أحمال الذكاء الاصطناعي
تم تعزيز حرب السحابة بين الشركات الفائقة بالطلب على الذكاء الاصطناعي. كل مزود سحابي رئيسي ينشر استراتيجيات مختلفة للاستحواذ على أحمال الذكاء الاصطناعي.
Microsoft Azure تملك شراكة OpenAI كقدرتها الرائدة في الذكاء الاصطناعي. الوصول الحصري لنماذج GPT وتكامل Copilot عبر مجموعة منتجات Microsoft يمنح Azure موقعاً فريداً. تشمل البنية التحتية للذكاء الاصطناعي في Azure وحدات معالجة رسومات NVIDIA وعناقيد AMD MI300X، بالإضافة إلى مسرّعات Maia 100 المخصصة.
Amazon Web Services تستفيد من موقعها الريادي في السوق السحابية (حصة ~30%) ورقائق Trainium المخصصة. تقدم Trainium2 من AWS — المصممة خصيصاً لتدريب النماذج الكبيرة — أداءً تنافسياً بتكلفة أقل من وحدات معالجة الرسومات من NVIDIA. تستهدف رقائق Inferentia سوق الاستدلال.
Google Cloud Platform تستفيد من عقود خبرة Google في أبحاث الذكاء الاصطناعي وعتاد TPU (وحدة معالجة المُوتّرات) المخصص. توفر TPU v5p وبنية Trillium بدائل للتدريب المرتكز على وحدات معالجة الرسومات. كما تقدم Google نماذج Gemini أصلياً، مما يخلق مكدس ذكاء اصطناعي متكاملاً رأسياً.
المنافسون الصاعدون مثل CoreWeave وLambda Labs وTogether AI يبنون بنية تحتية سحابية لوحدات معالجة الرسومات تركز حصرياً على أحمال الذكاء الاصطناعي. دفع نهج CoreWeave المرتكز على وحدات معالجة الرسومات وشراكتها مع NVIDIA نمواً سريعاً — حصلت الشركة على 1.1 مليار دولار في تمويل السلسلة C، وتجاوزت إيراداتها 5 مليارات دولار في 2025، وتتوقع 12-13 مليار دولار في الإيرادات لعام 2026، مدعومة بطلبات متعاقد عليها تتجاوز 55 مليار دولار.
بالنسبة للمؤسسات التي تختار أين تنشر أحمال الذكاء الاصطناعي، يعتمد القرار بشكل متزايد على أي النماذج تستخدم، وما الأداء الذي تحتاجه، ومدى تقديرها للمرونة بين الملكي والمفتوح المصدر. عصر هيمنة السحابة الواحدة يفسح المجال لاستراتيجيات الذكاء الاصطناعي متعددة السحابة حيث تستخدم المؤسسات مزودين مختلفين لأحمال مختلفة.
مشكلة الطاقة: شهية الذكاء الاصطناعي النهمة
القيد الأكثر إلحاحاً على البنية التحتية للذكاء الاصطناعي ليس السيليكون — بل الكهرباء. يمكن لمركز بيانات ذكاء اصطناعي حديث واحد أن يستهلك 100-300 ميغاواط، أي ما يعادل تشغيل 80,000-250,000 منزل.
تقدّر Goldman Sachs أن استهلاك الطاقة العالمي لمراكز البيانات يمكن أن يزداد بنسبة 165% بحلول 2030، مدفوعاً بشكل أساسي بأحمال الذكاء الاصطناعي. في الولايات المتحدة وحدها، من المتوقع أن تمثل مراكز البيانات 6-9% من إجمالي استهلاك الكهرباء بحلول 2030، ارتفاعاً من نحو 3-4% في 2024، وفقاً لتقديرات معهد أبحاث الطاقة الكهربائية (EPRI) وGoldman Sachs.
تجبر أزمة الطاقة هذه الصناعة على اتباع استراتيجيات متعددة في وقت واحد:
الطاقة النووية تعود بقوة. وقّعت Microsoft اتفاقية شراء طاقة لمدة 20 عاماً مع Constellation Energy لإعادة تشغيل وحدة في Three Mile Island (أُعيدت تسميتها الآن بمركز Crane للطاقة النظيفة)، ومن المتوقع أن تبدأ العمل في 2027. حصلت Amazon على صفقة طاقة نووية بقيمة 18 مليار دولار لمدة 17 عاماً مع Talen Energy لما يصل إلى 1,920 ميغاواط من محطة Susquehanna النووية. وقّعت Google أول اتفاقية شركات في العالم لشراء طاقة من مفاعلات نووية صغيرة معيارية (SMRs)، لدعم سبعة مفاعلات من Kairos Power ستوفر ما يصل إلى 500 ميغاواط بدءاً من حوالي 2030. المنطق مقنع: توفر الطاقة النووية طاقة أساسية موثوقة وخالية من الكربون — بالضبط ما تحتاجه مراكز البيانات.
التزامات الطاقة المتجددة تستمر في النمو، لكن الفجوة بين الالتزامات والواقع تتسع. اشترت الشركات السحابية الفائقة كميات ضخمة من ائتمانات الطاقة المتجددة، لكن التسليم الفعلي لطاقة الرياح والطاقة الشمسية لا يتوافق دائماً مع متطلبات مراكز البيانات على مدار الساعة.
ابتكارات الكفاءة — بما فيها أنظمة التبريد بالسائل المتقدمة، وبنيات الرقائق الأكثر كفاءة، وتحسين أحمال العمل — تحسّن كفاءة الطاقة لكل عملية حسابية، لكن الاستهلاك الإجمالي يستمر في الارتفاع مع تجاوز الطلب لمكاسب الكفاءة.
استهلاك المياه لتبريد مراكز البيانات مصدر قلق ناشئ آخر. يمكن لمركز بيانات كبير أن يستهلك ما يصل إلى 5 ملايين غالون من المياه يومياً، وتستهلك مراكز البيانات الأمريكية مجتمعة ما يُقدّر بـ 449 مليون غالون يومياً، مما يخلق توتراً مع المجتمعات في مناطق شحّ المياه.
ثورة السيليكون المخصص
هيمنة وحدات معالجة الرسومات في الذكاء الاصطناعي ليست مضمونة. موجة متنامية من السيليكون المخصص — الدوائر المتكاملة المخصصة للتطبيقات (ASICs) المصممة حصرياً لأحمال الذكاء الاصطناعي — تعد بأداء أفضل أو تكلفة أقل أو استهلاك طاقة أقل لمهام محددة.
كانت وحدات TPU من Google الرائدة، حيث أثبتت أن مسرّعات الذكاء الاصطناعي المخصصة يمكن أن تنافس وحدات معالجة الرسومات في تدريب النماذج الكبيرة. تبعتها رقائق Trainium وInferentia من AWS. وتمثل Maia 100 من Microsoft ورقائق التدريب المخصصة من Meta (MTIA) أحدث الداخلين من الشركات السحابية الفائقة التي تبني سيليكونها الخاص.
تستهدف الشركات الناشئة سوق الاستدلال ببنيات جديدة. تقدم وحدات معالجة اللغة (LPUs) من Groq استدلالاً أسرع بشكل كبير من خلال نهج حتمي يعتمد على المُجمّع أولاً. يُلغي محرك Cerebras على مستوى الرقاقة الكاملة — رقاقة واحدة بحجم رقاقة سيليكون كاملة — عنق زجاجة النطاق الترددي للذاكرة الذي يحد من سرعة استدلال وحدات معالجة الرسومات. تستهدف بنية تدفق البيانات من SambaNova أحمال الذكاء الاصطناعي المؤسسية.
ثورة السيليكون المخصص لا تعني اختفاء وحدات معالجة الرسومات. بل يتشظى السوق: وحدات معالجة رسومات للتدريب العام، ورقائق مخصصة لأحمال استدلال محددة، ونهج هجينة تجمع بين الاثنين. بالنسبة لأنظمة تشغيل الذكاء الاصطناعي التي تدير أساطيل من الوكلاء، ستصبح إدارة الحوسبة غير المتجانسة — توجيه أحمال العمل إلى العتاد الأمثل — قدرة أساسية.
الاستدلال: ساحة المعركة الخفية
بينما تركز العناوين على التدريب، يصبح الاستدلال بهدوء التحدي الاقتصادي الأكبر. كل محادثة ChatGPT، وكل اقتراح Copilot، وكل صورة يولّدها الذكاء الاصطناعي يتطلب حوسبة استدلال. مع توسع تطبيقات الذكاء الاصطناعي لتخدم مليارات المستخدمين، تتضاءل تكاليف التدريب أمام تكاليف الاستدلال.
يعيد هذا التحول تشكيل مشهد العتاد. يكافئ التدريب إنتاجية الحوسبة الخام — حشر أكبر عدد ممكن من عمليات الفاصلة العائمة في كل رقاقة. يكافئ الاستدلال زمن الاستجابة (ما مدى سرعة توليد كل رمز؟)، والإنتاجية لكل واط (كم طلب لكل كيلوواط؟)، والتكلفة لكل رمز (ما مدى رخص خدمة كل استجابة؟).
يتضمن مكدس تحسين الاستدلال:
ضغط النموذج: التكميم (تقليل الدقة العددية من 32 بت إلى 8 بت أو حتى 4 بت)، والتقليم (إزالة الاتصالات غير الضرورية)، والتقطير (تدريب نماذج أصغر لتقليد الأكبر) كلها تقلل تكاليف الاستدلال مع بعض المقايضة في الجودة.
خليط الخبراء (MoE): بنيات مثل DeepSeek-V3 وLlama 4 Maverick تستخدم فقط جزءاً من إجمالي معاملاتها لكل رمز، مما يقلل بشكل كبير حوسبة كل استدلال مع الحفاظ على الجودة.
فك التشفير التخميني: استخدام نموذج صغير وسريع لتوليد رموز أولية يتحقق منها نموذج أكبر — تحقيق جودة النموذج الكبير بسرعة أقرب إلى النموذج الصغير.
التخزين المؤقت والتجميع: إعادة استخدام الحسابات عبر طلبات مشابهة وتجميع طلبات متعددة لكفاءة وحدة معالجة الرسومات.
الشركات التي تفوز بمعركة كفاءة الاستدلال — إنتاج ذكاء أكثر لكل دولار ولكل واط — ستحدد في النهاية مدى إتاحة الذكاء الاصطناعي والقدرة على تحمل تكلفته.
الجغرافيا السياسية للحوسبة
أصبحت البنية التحتية للذكاء الاصطناعي مسرحاً للتنافس الجيوسياسي. فرضت الحكومة الأمريكية ضوابط تصدير متصاعدة على رقائق الذكاء الاصطناعي المتقدمة، مقيّدة مبيعات أقوى وحدات معالجة الرسومات من NVIDIA إلى الصين وبعض الدول الأخرى.
ردّت الصين بتسريع تطوير الرقائق المحلية. تمثل مسرّعات Ascend 910B و910C من Huawei أكثر رقائق الذكاء الاصطناعي الصينية الصنع تقدماً، رغم أنها لا تزال متأخرة عن H100 من NVIDIA — يقدم Ascend 910C أداءً يتراوح بين 60-80% تقريباً من أداء H100 حسب حمل العمل. تحد قيود التصنيع في عملية 7 نانومتر بالأشعة فوق البنفسجية العميقة (DUV) لدى SMIC من معدلات العائد إلى نحو 30%، مما يخلق اختناقات في الإمداد.
موقع TSMC — تصنيع الغالبية العظمى من أكثر الرقائق تقدماً في العالم في جزيرة تايوان — يخلق مخاطر تركز جيوسياسية تعتمد عليها صناعة الذكاء الاصطناعي بأكملها. بدأ أول مصنع لـ TSMC في أريزونا الإنتاج الكمي في أوائل 2025 بتقنية عملية 4 نانومتر، مع استهداف مصنع ثانٍ لإنتاج 3 نانومتر في 2027 وإعلان مصنع ثالث لعمليات 2 نانومتر في وقت لاحق من العقد. وصل إجمالي استثمارات أريزونا إلى 165 مليار دولار، لكن عمليات التصنيع الأكثر تقدماً ستبقى في تايوان لسنوات قادمة.
بالنسبة للدول خارج محور الولايات المتحدة والصين، بما فيها الجزائر والقارة الأفريقية الأوسع، تخلق الجغرافيا السياسية للحوسبة قيوداً وفرصاً. الوصول إلى أحدث رقائق الذكاء الاصطناعي محدود بضوابط التصدير وتخصيص الإمدادات. لكن السوق المتنامي للعتاد المحسّن للاستدلال، والوصول السحابي للنماذج الرائدة، وصعود النماذج مفتوحة المصدر الكفوءة تخلق مسارات بديلة للقدرة في مجال الذكاء الاصطناعي.
تتكاثر مبادرات الذكاء الاصطناعي السيادي عالمياً — حيث تستثمر الدول في البنية التحتية والقدرات المحلية للذكاء الاصطناعي. الاختيار بين بناء قدرة حوسبة محلية مقابل الاعتماد على خدمات الشركات السحابية الفائقة يصبح قراراً استراتيجياً لكل حكومة وطنية.
ما الذي سيحدث بعد ذلك
لا يظهر سباق البنية التحتية للذكاء الاصطناعي أي علامات على التباطؤ. عدة اتجاهات ستشكّل مرحلته القادمة:
التوحيد والتخصص. سيتشظى سوق العتاد أكثر: وحدات معالجة رسومات للتدريب، وASICs للاستدلال، ورقائق عصبية للذكاء الاصطناعي على الحافة. الشركات التي تبني أفضل التجريدات البرمجية عبر مشهد العتاد غير المتجانس هذا — أنظمة تشغيل الذكاء الاصطناعي التي تتيح للمطورين تجاهل تعقيد العتاد — ستستحوذ على قيمة غير متناسبة.
قيد الطاقة يصبح ملزماً. خلال 2-3 سنوات، ستكون توفر الكهرباء — وليس توفر الرقائق — هو العنق الزجاجي الرئيسي لتوسيع البنية التحتية للذكاء الاصطناعي. الشركات التي تمتلك عقود طاقة مضمونة وشراكات نووية ستتمتع بمزايا هيكلية.
اقتصاديات الاستدلال تحدد الإتاحة. مع استقرار تكاليف التدريب (النماذج تتحسن أكثر عبر البنية من الحوسبة الخام)، ستحدد تكلفة الاستدلال مدى توزيع قدرات الذكاء الاصطناعي على نطاق واسع. استدلال أرخص يعني أن الذكاء الاصطناعي يصل إلى مزيد من المستخدمين والاستخدامات والمناطق الجغرافية.
حروب السحابة تشتد. ستتنافس الشركات السحابية الفائقة على السعر والأداء والوصول للنماذج. يمنح السيليكون المخصص كل مزود سحابي هيكل تكلفة متمايز، مما يجعل المقارنات المباشرة صعبة بشكل متزايد.
الطبقة المادية للذكاء الاصطناعي ليست جذابة. لا توجد عروض توضيحية فيروسية لبناء مراكز البيانات، ولا حماس استهلاكي حول بنيات وحدات معالجة الرسومات. لكن هذه البنية التحتية تحدد كل شيء آخر: أي النماذج تُدرّب، ومدى سرعة تشغيلها، ومقدار تكلفتها، ومن يمكنه الوصول إليها. مكدس الذكاء الاصطناعي الوكيلي — الوكلاء، والتنسيق، والأدوات، والذاكرة — كلها تقوم فوق هذا الأساس المادي.
الفائزون في حرب البنية التحتية للذكاء الاصطناعي لن يهيمنوا على سوق فحسب. بل سيشكّلون أي مستقبلات الذكاء الاصطناعي ممكنة.
إعلان
رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — قرارات البنية التحتية تؤثر على إتاحة الذكاء الاصطناعي وتكلفته وسيادته؛ موارد الطاقة الجزائرية (الغاز الطبيعي والطاقة الشمسية المحتملة) تخلق فرصاً فريدة لاستضافة مراكز البيانات |
| جاهزية البنية التحتية؟ | لا — سعة محدودة محلياً لوحدات معالجة الرسومات/مراكز البيانات؛ اعتماد كبير على مزودي السحابة الدوليين؛ قدرة كبيرة على توليد الكهرباء لكن منشآت مراكز بيانات محدودة |
| توفر المهارات؟ | جزئية — قاعدة قوية في الهندسة الكهربائية والمدنية؛ خبرة محدودة في تشغيل مراكز البيانات وأنظمة وحدات معالجة الرسومات |
| الإطار الزمني للعمل | 12-24 شهراً — التخطيط الاستراتيجي للاستثمار في مراكز البيانات، وتقييم الشراكات السحابية، وتحديد موقع الطاقة مقابل الحوسبة |
| أصحاب المصلحة الرئيسيون | هيئات التقنية الحكومية، شركات الطاقة (Sonatrach، Sonelgaz)، مزودو الاتصالات، مستهلكو الخدمات السحابية |
| نوع القرار | استراتيجي — القرارات الوطنية حول الاستثمار في البنية التحتية للذكاء الاصطناعي تشكّل عقوداً من الموقع التنافسي |
خلاصة سريعة: موارد الطاقة الهائلة للجزائر — البنية التحتية الحالية للغاز الطبيعي والإمكانات الشمسية غير المستغلة في الصحراء — تضعها في موقع فريد في مشهد البنية التحتية للذكاء الاصطناعي. بينما بناء عناقيد تدريب رائدة غير واقعي على المدى القريب، يمكن للجزائر جذب استثمارات مراكز بيانات مركّزة على الاستدلال من خلال تقديم تكاليف طاقة تنافسية وموقع جغرافي استراتيجي بين أوروبا وأفريقيا. الخطوة الأولى هي تقييم الشراكات مع الشركات السحابية الفائقة التي تبحث عن مواقع غنية بالطاقة لمنشآت الجيل القادم.
المصادر والقراءات الإضافية
- AI to Drive 165% Increase in Data Center Power Demand — Goldman Sachs Research
- NVIDIA Blackwell Architecture: Technical Overview — NVIDIA
- Notable AI Models Database — Epoch AI
- Why AI Companies May Invest More than $500 Billion in 2026 — Goldman Sachs
- Computing Power and the Governance of Artificial Intelligence — Epoch AI / arXiv
- Electricity 2024: Analysis and Forecast to 2026 — International Energy Agency
- Data Centers Could Consume up to 9% of US Electricity by 2030 — Electric Power Research Institute
- Export Controls on Advanced Computing and Semiconductors — US Bureau of Industry and Security
- AI Capex 2026: The $690B Infrastructure Sprint — Futurum Group





إعلان