قبل عامين، كانت حروب السحابة تدور حول تسعير التخزين والتوافر الإقليمي وخدمات Kubernetes المُدارة. هذه المعارك لا تزال مهمة، لكنها أصبحت في ظل سؤال واحد يقود الآن مئات المليارات في تخصيص رأس المال: من يفوز بالذكاء الاصطناعي؟

باختصار: تخوض AWS وAzure وGoogle Cloud سباق تسلّح غير مسبوق على أحمال عمل الذكاء الاصطناعي، حيث تنفق مجتمعةً مئات المليارات في 2026 على بنية الذكاء الاصطناعي التحتية. وضعت كل منها رهاناً مميزاً — Azure على شراكتها مع OpenAI والتكامل المؤسسي، وGoogle على رقائق TPU المخصصة ومنظومة Gemini، وAWS على رقائق Trainium واتساع المنظومة. ستعيد النتيجة تشكيل صناعة السحابة للعقد القادم.

لوحة النتائج

لنبدأ بالأرقام المهمة. حتى الربع الثالث من 2025، تستحوذ AWS على ما يقارب 32% من سوق البنية التحتية السحابية العالمية، تليها Azure بنسبة 22% ثم Google Cloud بنسبة 11%. يستحوذ الثلاثة الكبار مجتمعين على أكثر من 60% من سوق السحابة المتنامي باستمرار، بينما يظل بقية المنافسين عالقين في خانة الأرقام الفردية المنخفضة.

بالنسبة لأحمال عمل الذكاء الاصطناعي التوليدي تحديداً، تتقلص الفجوة بشكل كبير. تتصدر AWS بنسبة 41% من المؤسسات التي تستضيف أحمال الذكاء الاصطناعي التوليدي على منصتها، تليها Azure بنسبة 39%، وGoogle Cloud بنسبة 17%. وعند قياس الاستضافة الأساسية للذكاء الاصطناعي التوليدي — حيث تُشغّل المؤسسات أهم أنظمتها — تقدمت Azure فعلياً بنسبة 42%، مقارنة بـ40% لـAWS.

مسارات النمو كاشفة بالقدر ذاته. أنهت AWS عام 2025 بإيرادات الربع الرابع البالغة 35.6 مليار دولار، لتصل إلى معدل سنوي يبلغ 142 مليار دولار مسجّلةً نمواً بنسبة 24% على أساس سنوي — أقوى نمو فصلي لها في 13 ربعاً. تُسجّل Azure معدلات نمو تقارب 40%، بينما نمت Google Cloud بنسبة 36% على أساس سنوي في الربع الثالث من 2025. كلا المنافسَين يكتسبان حصة أسرع من الشركة الرائدة.

هذه ليست فروقات صغيرة في سوق صغير. يقترب سوق البنية التحتية السحابية العالمية من 800 مليار دولار. نقطة مئوية واحدة من الحصة السوقية تمثل مليارات الدولارات في الإيرادات السنوية.

Azure: رهان OpenAI

يمكن تلخيص استراتيجية Microsoft السحابية للذكاء الاصطناعي في كلمتين: OpenAI. الشراكة التي بدأت باستثمار مليار دولار في 2019 ونمت منذ ذلك الحين إلى أكثر من 13 مليار دولار إجمالاً، تمنح Azure حقوق الاستضافة السحابية الحصرية لنماذج OpenAI. كل استعلام في ChatGPT، وكل استدعاء واجهة برمجة تطبيقات (API)، وكل نشر مؤسسي لـGPT-4 وخلفائه يعمل على بنية Azure التحتية.

هذا موقع قوي للغاية. نما نشاط واجهة برمجة التطبيقات لدى OpenAI أسرع من استخدام ChatGPT الاستهلاكي في 2025، وتبني المؤسسات يتسارع. عندما تقرر شركة من قائمة Fortune 500 البناء باستخدام GPT-4 أو خلفائه، فهي فعلياً تختار Azure.

لكن الاستراتيجية تمتد إلى ما هو أبعد من الاستضافة. نسجت Microsoft الذكاء الاصطناعي في كل طبقة من مكدّسها المؤسسي. Microsoft 365 Copilot، المدعوم بنماذج GPT، مدمج في Word وExcel وPowerPoint وTeams وOutlook. يهيمن GitHub Copilot على البرمجة بمساعدة الذكاء الاصطناعي. يوفر Azure AI Studio الأدوات للضبط الدقيق للنماذج المخصصة ونشرها. Copilot Studio موجود بالفعل في أكثر من 230,000 مؤسسة، بما في ذلك 90% من شركات Fortune 500، مما يتيح للمؤسسات بناء أنظمة وكلاء متعددة تتعامل مع سير عمل معقدة عبر التطبيقات.

عمق التكامل هو خندق Azure الدفاعي. المؤسسة التي تستخدم بالفعل Microsoft 365 وAzure Active Directory وDynamics 365 تواجه احتكاكاً ضئيلاً في إضافة خدمات Azure AI. البيانات موجودة بالفعل. إدارة الهوية مُعدَّة بالفعل. أطر الامتثال مطبّقة بالفعل.

في Microsoft Build 2025، وضع Satya Nadella منصة Azure ليس فقط كمزوّد سحابي بل كأساس لعصر جديد من وكلاء الذكاء الاصطناعي الذين يتفاعلون مع بعضهم لإنجاز سير عمل معقدة ومتعددة الخطوات دون إشراف بشري مستمر.

تستثمر Microsoft أيضاً في رقائقها الخاصة. Maia 200، مسرّع الذكاء الاصطناعي من الجيل الثاني للشركة المبني على عملية TSMC بدقة 3 نانومتر مع 216 جيجابايت من ذاكرة HBM3e، بدأ نشره في مراكز بيانات Azure. تدّعي Microsoft أنه أكثر رقائق الطرف الأول أداءً من أي شركة حوسبة فائقة، مع أداء FP4 يفوق Trainium من Amazon بثلاثة أضعاف وأداء FP8 يتفوق على الجيل السابع من TPU الخاص بـGoogle.

المخاطرة في استراتيجية Azure هي التركيز. OpenAI نقطة اعتماد وحيدة. في ديسمبر 2025، أعلن Sam Altman حالة “إنذار أحمر” داخلياً بعد أن تفوّقت نماذج Gemini 3 من Google على ChatGPT في عدة معايير مرجعية، مؤجّلاً مبادرات متعددة مؤقتاً لتركيز الموارد على تحسين النموذج الأساسي. إذا تراجعت نماذج OpenAI على المدى الطويل، يضعف تمايز Azure في الذكاء الاصطناعي. تحوّطت Microsoft بتقديم نماذج مفتوحة المصدر عبر Azure AI أيضاً، لكن علاقة OpenAI تظل الركيزة الأساسية.

Google Cloud: ميزة الرقائق

تُبنى استراتيجية Google السحابية للذكاء الاصطناعي على أساس لا يستطيع أي منافس تكراره بسهولة: رقائق مخصصة مصمّمة من الصفر لأحمال عمل الذكاء الاصطناعي.

تقدم رقاقة Trillium TPU من Google (الجيل السادس من وحدة معالجة المؤشرات Tensor Processing Unit) زيادة بمقدار 4.7 ضعف في ذروة أداء الحوسبة لكل رقاقة مقارنة بالجيل السابق TPU v5e. تضاعف سعة وعرض نطاق ذاكرة HBM، وتضاعف عرض نطاق الربط البيني بين الرقائق، وتحقق زيادة 67% في كفاءة الطاقة. في معايير التدريب على نماذج مثل Llama 2-70B، توفر Trillium أكثر من 4 أضعاف أداء التدريب مقارنة بـTPU v5e.

حجم نشر TPU مذهل. في أكتوبر 2025، أعلنت Anthropic وGoogle عما يُعتقد أنه أكبر صفقة TPU في تاريخ Google Cloud — التزام بمليارات الدولارات يمنح Anthropic وصولاً إلى ما يصل إلى مليون وحدة TPU، من المتوقع أن يوفر أكثر من جيغاواط من قدرة الحوسبة للذكاء الاصطناعي في 2026. تشمل الصفقة محفظة TPU من Google بما في ذلك مسرّعات Ironwood من الجيل السابع.

لكن ميزة Google تمتد إلى ما هو أبعد من العتاد. عائلة نماذج Gemini — المدرّبة على بنية TPU الخاصة بـGoogle — تمنح Google Cloud مكدّساً متكاملاً رأسياً من الرقاقة إلى طبقة التطبيقات. عندما وقّعت Apple صفقة متعددة السنوات في يناير 2026 لاستخدام تقنية Gemini لتشغيل ميزات Apple Intelligence المستقبلية بما في ذلك Siri أكثر تخصيصاً، صادقت على قدرات نموذج الذكاء الاصطناعي من Google على أعلى مستوى.

بالنسبة لعملاء Google Cloud، يُترجَم هذا التكامل الرأسي إلى مزايا تسعيرية. يمكن لـGoogle تقديم تدريب واستدلال الذكاء الاصطناعي بتكاليف لا يستطيع المنافسون — المعتمدون على وحدات معالجة الرسومات من NVIDIA بأسعار السوق — مجاراتها بسهولة.

نقطة ضعف Google Cloud هي التبني المؤسسي. رغم القدرات التقنية القوية، عانت Google تاريخياً في بناء علاقات المبيعات المؤسسية وهياكل الدعم التي تطلبها المؤسسات الكبيرة. تمتلك AWS وAzure شراكات عميقة تمتد لعقود مع أقسام تكنولوجيا المعلومات المؤسسية. تسدّ Google Cloud هذه الفجوة — نموها بنسبة 36% على أساس سنوي في الربع الثالث من 2025 يعكس زخماً قوياً — لكنها تظل المزوّد في المركز الثالث في الحصة السوقية السحابية الإجمالية لسبب وجيه.

إعلان

AWS: استراتيجية المنظومة

استراتيجية Amazon السحابية للذكاء الاصطناعي هي نموذج AWS المعتاد: قدّم كل شيء، دع العملاء يختارون، ونافس على الاتساع والموثوقية.

AWS Trainium، رقاقة تدريب الذكاء الاصطناعي المخصصة من Amazon، وصلت الآن إلى جيلها الثالث. Trainium3، الذي أُطلق في ديسمبر 2025، مبني على عملية 3 نانومتر ويوفر 2.52 بيتافلوبس من حوسبة FP8 لكل رقاقة مع 144 جيجابايت من ذاكرة HBM3e وعرض نطاق ذاكرة يبلغ 4.9 تيرابايت/ثانية. وعند التوسع إلى خادم Trn3 UltraServer كامل التكوين مع 144 رقاقة، يوفر النظام 362 بيتافلوبس FP8 و20.7 تيرابايت من HBM3e.

جاء التصديق الأكثر دراماتيكية على Trainium من شريك غير متوقع: OpenAI. في فبراير 2026، التزمت Amazon باستثمار 50 مليار دولار — 15 مليار دولار مقدماً و35 ملياراً مشروطة بتحقيق مراحل — مما جعل AWS الموزّع السحابي الحصري لطرف ثالث لمنصة Frontier المؤسسية من OpenAI. وافقت OpenAI على استهلاك ما يقارب 2 جيغاواط من قدرة حوسبة Trainium، تشمل كلا الجيلين Trainium 3 وTrainium 4 القادم.

مشروع Rainier، الذي فُعّل في أكتوبر 2025، هو ربما أكثر عمليات نشر بنية الذكاء الاصطناعي التحتية طموحاً لعميل واحد في التاريخ. نُشر ما يقارب 500,000 رقاقة Trainium2 عبر حرم مركز بيانات بتكلفة 11 مليار دولار قرب New Carlisle في Indiana، مخصص لتدريب نماذج Claude من Anthropic. يوفر أكثر من خمسة أضعاف قوة الحوسبة التي استخدمتها Anthropic لإصدارات Claude السابقة، مع خطط للتوسع إلى أكثر من مليون رقاقة Trainium2 بحلول نهاية 2025.

تستفيد استراتيجية AWS الأوسع للذكاء الاصطناعي من اتساع منظومتها. يوفر Amazon Bedrock الوصول إلى النماذج الأساسية من Anthropic وMeta وMistral وStability AI وغيرها — نهج محايد تجاه النماذج يتناقض مع استراتيجية Azure المتمحورة حول OpenAI. يوفر SageMaker عمليات التعلم الآلي من البداية إلى النهاية. وتوفر قاعدة عملاء AWS الضخمة الحالية — من الشركات الناشئة إلى الوكالات الحكومية — توزيعاً لا يستطيع أي منافس مجاراته، مدعوماً بتراكم طلبات يبلغ 244 مليار دولار حتى الربع الرابع من 2025.

المخاطرة بالنسبة لـAWS هي أن نهجها العام قد يفتقر إلى السردية المقنعة لتكامل Azure مع OpenAI أو مكدّس Google المتكامل رأسياً من الرقاقة إلى النموذج. في سوق تتخذ فيه المؤسسات قرارات مصيرية بشأن منصات الذكاء الاصطناعي، قد يبدو “نقدم كل شيء” أقل حسماً من “لدينا أفضل النماذج” أو “لدينا أفضل الرقائق”.

حروب الرقائق المخصصة

ربما يكون البُعد الأكثر تأثيراً في حروب السحابة للذكاء الاصطناعي هو سباق بناء رقائق ذكاء اصطناعي مخصصة. خلصت شركات الحوسبة الفائقة الثلاث جميعها إلى أن الاعتماد على NVIDIA — التي تسيطر على ما يقارب 80-90% من سوق مسرّعات الذكاء الاصطناعي — يمثل مخاطرة استراتيجية غير مقبولة.

تحركت Google أولاً مع وحدات TPU، التي تمتد الآن عبر ستة أجيال بالإضافة إلى الجيل السابع Ironwood. تبعتها AWS مع Trainium وInferentia. ودخلت Microsoft مع Maia، الآن في جيلها الثاني مع Maia 200 بدقة 3 نانومتر.

الاقتصاديات واضحة. يولّد نشاط وحدات معالجة الرسومات لمراكز البيانات من NVIDIA هوامش ربح إجمالية في نطاق 73-75%. كل دولار تنفقه شركة حوسبة فائقة على عتاد NVIDIA يتضمن علاوة كبيرة لمنظومة NVIDIA البرمجية (CUDA) وقوتها السوقية. الرقائق المخصصة، رغم تكلفة تطويرها، يمكنها تقليل تكلفة حوسبة الذكاء الاصطناعي لكل رقاقة بشكل كبير على النطاق الواسع.

لكن NVIDIA لا تقف مكتوفة الأيدي. يوفر Blackwell Ultra B300 عشرة بيتافلوبس من حوسبة FP8 لكل رقاقة مع 288 جيجابايت من ذاكرة HBM3e، ومنصة Vera Rubin القادمة تعد بقفزة جيلية أخرى. تخلق منظومة CUDA البرمجية — بملايين المطورين المدرّبين وآلاف المكتبات المحسّنة — تكلفة تبديل يجب على الرقائق المخصصة التغلب عليها.

النتيجة المرجّحة هي عالم متعدد الرقائق. ستستخدم شركات الحوسبة الفائقة الرقائق المخصصة لأحمال عملها الداخلية وللعملاء الحساسين للسعر، بينما تقدم وحدات معالجة رسومات NVIDIA للعملاء الذين يحتاجون التوافق مع CUDA أو أحدث أداء لوحدات معالجة الرسومات. أيام NVIDIA كمورّد وحيد لحوسبة الذكاء الاصطناعي تقترب من نهايتها، لكن موقع NVIDIA كالخيار المتميز مؤمّن في المستقبل المنظور.

التسعير: المحصّلة النهائية

بالنسبة للمؤسسات التي تقيّم مزوّدي السحابة للذكاء الاصطناعي، أصبح التسعير حاسماً بشكل متزايد. أحمال عمل الذكاء الاصطناعي مكلفة — يمكن أن تكلّف عملية تدريب نموذج كبير واحدة ملايين الدولارات — والفروقات بين المزوّدين ذات معنى.

المقارنة السعرية المباشرة صعبة بشكل ملحوظ لأن كل مزوّد يستخدم أنواع مثيلات مختلفة ونماذج تسعير وهياكل التزام مختلفة. ومع ذلك، تظهر أنماط عامة. تقدم Google Cloud عموماً أقل تكلفة لكل وحدة لتدريب الذكاء الاصطناعي، بفضل مزايا تسعير TPU والتكامل الرأسي. تنافس AWS بقوة مع مثيلات Trainium للتدريب وتقدم أوسع مجموعة من أنواع مثيلات وحدات معالجة الرسومات. تميل Azure إلى أن تكون الأعلى تكلفة على أساس الوحدة لكنها تقدم التكامل الأكثر سلاسة مع أدوات Microsoft المؤسسية، مما يمكن أن يقلل التكلفة الإجمالية للملكية للمؤسسات الموجودة بالفعل في منظومة Microsoft.

يمكن لالتزامات السعة المحجوزة — عقود لمدة سنة أو ثلاث سنوات — تقليل التكاليف بنسبة 40-60% عبر المزوّدين الثلاثة. بالنسبة لاستدلال الذكاء الاصطناعي، حيث تكون أحمال العمل أكثر قابلية للتنبؤ، يمكن للمثيلات الفورية والقابلة للإلغاء تقليل التكاليف أكثر.

حرب التسعير تشتد. مع دخول الرقائق المخصصة الخدمة واحتدام المنافسة، تستمر تكلفة الرمز الواحد لاستدلال الذكاء الاصطناعي في الانخفاض بشكل كبير. هذا الاتجاه الانكماشي يفيد العملاء لكنه يضغط على هوامش المزوّدين، مما يخلق ضغطاً للتمايز على البرمجيات والخدمات والمنظومة بدلاً من تسعير الحوسبة الخام وحده.

من الفائز؟

الإجابة الصادقة هي أن حروب السحابة للذكاء الاصطناعي لن تنتج فائزاً واحداً. كل مزوّد رسّخ موقعاً قابلاً للدفاع عنه.

Azure تفوز في حرب منصة الذكاء الاصطناعي المؤسسية — المؤسسات التي تريد مكدّساً متكاملاً بالكامل للذكاء الاصطناعي من الجهاز عبر أدوات الإنتاجية (Microsoft 365 Copilot) إلى البنية التحتية السحابية، مع الوصول إلى أكثر نماذج الذكاء الاصطناعي انتشاراً في العالم عبر OpenAI. بالنسبة للمؤسسات الكبيرة الموجودة بالفعل في منظومة Microsoft، تكاليف التبديل بعيداً عن Azure للذكاء الاصطناعي باهظة.

Google Cloud تفوز في حرب المنصات الأصلية للذكاء الاصطناعي — المؤسسات التي تعطي الأولوية للأداء لكل دولار، وتحتاج بنية تدريب واسعة النطاق، أو تريد البناء على منظومة Gemini. التكامل الرأسي لـGoogle من الرقاقة المخصصة إلى النماذج الحدودية لا مثيل له، وصفقة Apple Intelligence تصادق على قدرات نماذجها على أعلى مستوى.

AWS تفوز في حرب اتساع المنظومة — المؤسسات التي تريد أقصى مرونة، والوصول إلى مزوّدي نماذج متعددين، والموثوقية والانتشار العالمي الذي بنته AWS على مدى عقدين. نهج AWS المحايد تجاه النماذج عبر Bedrock، مع مزايا تكلفة Trainium وصفقة توزيع OpenAI Frontier، يجذب المؤسسات التي لا تريد الارتباط بمورّد نماذج ذكاء اصطناعي واحد.

الخاسر الحقيقي في حروب السحابة للذكاء الاصطناعي قد يكون الطبقة الثانية من مزوّدي السحابة — Oracle وIBM وAlibaba — الذين يفتقرون إلى رأس المال للمنافسة على بنية الذكاء الاصطناعي التحتية بالحجم المطلوب. يتطلب بناء الذكاء الاصطناعي إنفاقاً لا تستطيع تحمّله سوى أكبر الشركات، والفجوة بين الثلاثة الكبار وبقية المنافسين تتسع مع كل تقرير أرباح فصلي.

إعلان

🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الصلة بالجزائر عالية — يجب على المؤسسات والوكالات الحكومية الجزائرية اختيار مزوّدي سحابة لأحمال عمل الذكاء الاصطناعي، وتؤثر الديناميكيات التنافسية مباشرة على التسعير والتوافر والخيارات الاستراتيجية
جاهزية البنية التحتية؟ جزئية — تمتلك الجزائر مناطق سحابية محدودة (لا يشغّل أي من الثلاثة الكبار مراكز بيانات محلية)، مما يجبر أحمال عمل الذكاء الاصطناعي الحساسة لزمن الاستجابة على المرور عبر المناطق الأوروبية أو الشرق أوسطية
توفر المهارات؟ جزئي — مهارات AWS وAzure متوفرة عبر مجتمعات المطورين الجزائريين، لكن مهارات Google Cloud والمهارات المتخصصة في بنية الذكاء الاصطناعي التحتية (برمجة TPU، تحسين Trainium) نادرة
الجدول الزمني للعمل فوري — يجب على المؤسسات التي تبني قدرات الذكاء الاصطناعي الآن تقييم المزوّدين الثلاثة والتفاوض على خصومات الاستخدام الملتزم قبل أن يزداد شحّ توافر وحدات معالجة الرسومات
أصحاب المصلحة الرئيسيون مديرو التكنولوجيا، مهندسو السحابة، مكاتب التحول الرقمي الحكومية، مختبرات أبحاث الذكاء الاصطناعي الجامعية، الشركات التقنية الناشئة الجزائرية
نوع القرار تكتيكي — قرارات اختيار المزوّد ذات تداعيات استراتيجية طويلة الأمد

باختصار: يجب على المؤسسات الجزائرية مقاومة الاعتماد التلقائي على مزوّد سحابي واحد لأحمال عمل الذكاء الاصطناعي. الديناميكيات التنافسية بين AWS وAzure وGCP تعني أن استراتيجيات السحابة المتعددة أو اختيار الأفضل في كل فئة يمكن أن تحقق وفورات تكلفة كبيرة على حوسبة الذكاء الاصطناعي. يجب على قادة تكنولوجيا المعلومات الجزائريين الاستثمار في أطر ذكاء اصطناعي محايدة تجاه السحابة (مثل PyTorch وHugging Face) تحافظ على المرونة مع تطور السوق.

المصادر والقراءات الإضافية