نبذة مختصرة: يسيطر مزودو الحوسبة الفائقة الثلاثة على ثلثي سوق السحابة الفصلي البالغ 107 مليارات دولار، لكن الذكاء الاصطناعي يُعيد رسم خطوط المعركة. كل منهم يراهن على ورقة مختلفة — AWS على الاتساع والسيليكون المخصص، وAzure على شراكتها الحصرية مع OpenAI، وGoogle على التكامل الأصلي مع Gemini واقتصاديات TPU. الفائز لن يُحدّد بمن يملك أفضل نموذج، بل بمن يجعل الاستدلال أرخص والنشر أسهل.
في الربع الثالث من 2025، بلغ الإنفاق العالمي على البنية التحتية السحابية 107 مليارات دولار وفقاً لـ Synergy Research Group — قفزة سنوية بنسبة 27 إلى 28% كانت ستكون لافتة في أي حقبة إلا هذه. ما جعلها استثنائية هو المحرّك الذي يقودها: نمت خدمات السحابة المخصصة للذكاء الاصطناعي التوليدي بنسبة 140 إلى 180% في الفترة ذاتها، وفقاً لـ Synergy Research Group. أصبح سباق البنية التحتية للذكاء الاصطناعي عملياً حرباً على ثلاث جبهات بين مزودي الحوسبة الفائقة، والذكاء الاصطناعي هو الذخيرة التي تحدد من يكسب أرضاً.
تحتفظ AWS بـ 29% من سوق السحابة. وتحتفظ Azure بـ 20%. وتحتفظ Google Cloud بـ 13%. ظلت هذه الأرقام مستقرة تقريباً لسنوات. لكن تحت الأرقام الرئيسية، تُعيد أعباء الذكاء الاصطناعي تشكيل أنماط الإنفاق وتغيّر الهوامش وتُجبر كل شركة على رهانات لا رجعة فيها على السيليكون ومنصات البرمجيات والارتباط بالمنظومة. حروب السحابة الذكية ليست مجازاً. إنها مسألة تخصيص موارد في الوقت الحقيقي تشمل مئات المليارات من الدولارات في النفقات الرأسمالية، وكل مزوّد حوسبة فائقة يلعب لعبة مختلفة جذرياً.
AWS: استراتيجية Bedrock
نهج Amazon في هيمنة السحابة الذكية هو ما تتوقعه من الشركة التي ابتكرت الحوسبة السحابية: اتساع المنصة فوق حصرية المنتج. يقدّم Amazon Bedrock، خدمة النماذج الأساسية المدارة، الوصول إلى نماذج من Anthropic وMeta وMistral وCohere وعائلة Nova الخاصة بـ Amazon عبر واجهة برمجة تطبيقات واحدة. الرهان هو أن العملاء المؤسسيين لا يريدون الالتزام بمزوّد نماذج واحد — يريدون سوقاً.
يمتد منطق السوق هذا إلى السيليكون. استثمرت AWS بكثافة في Trainium، مسرّع الذكاء الاصطناعي المخصص لها. رقائق Trainium2 مشتركة بالكامل عبر مناطق AWS. يقدّم Trainium3، المبني على عملية 3 نانومتر، كفاءة طاقة أفضل بنسبة 40% وقدرة حوسبية أعلى حتى 4.4 مرة لكل UltraServer مقارنة بسابقه. ترى AWS أن Bedrock العامل على Trainium هو محرّك الاستدلال الرائد — عمل تعتقد أنه قد ينافس EC2 في الحجم يوماً ما.
SageMaker، منصة التعلم الآلي من الشركة، تربط كل شيء معاً. تتعامل مع التدريب والضبط الدقيق والنشر، وقد أضافت AWS قدرات وكيلية عبر Bedrock AgentCore. الاستراتيجية متماسكة: امنح العملاء كل نموذج، وشغّله على أرخص سيليكون، واجعل الأدوات لاصقة بما يكفي ليصبح المغادرة مكلفاً.
الخطر هو التشتت. عندما تقدّم كل شيء، لا تتخصص في شيء. والعملاء الذين يريدون النموذج المتقدم — الذي يحقق أعلى الدرجات في المقاييس فعلاً — قد يجدون أن أفضل نسخة تعيش على سحابة منافس.
Microsoft Azure: تحالف OpenAI
قامت Microsoft بأكبر رهان فردي في حروب السحابة الذكية: استثمار يُقدّر بـ 13 مليار دولار في OpenAI. كان العائد كبيراً. وصلت خدمة Azure OpenAI إلى 80,000 عميل مؤسسي بحلول الربع الرابع من السنة المالية 2025، وبلغت إيرادات Microsoft من الذكاء الاصطناعي 13 مليار دولار سنوياً — بزيادة سنوية قدرها 175%.
تمنح Azure AI Foundry (المعروفة سابقاً بـ Azure AI Studio) المؤسسات الوصول إلى أكثر من 11,000 نموذج، لكن الجوهرة التاجية هي الوصول الحصري إلى GPT-4o وo1 وأحدث نماذج الاستدلال من OpenAI قبل أن تصل إلى أي منصة أخرى. ثمانون بالمائة من شركات Fortune 500 تستخدم الآن Azure AI Foundry. تجاوز عدد مستخدمي عائلة Copilot النشطين شهرياً 100 مليون بحلول ديسمبر 2025، مدمجاً الذكاء الاصطناعي مباشرة في منظومة الإنتاجية Microsoft 365 التي تدفع لها المؤسسات بالفعل.
القوة تكمن في عمق التكامل. شركة تشغّل Exchange وTeams وSharePoint وDynamics 365 يمكنها إضافة Copilot دون ضم مزوّد جديد. الضعف هو الاعتماد. إذا تقلّصت الأفضلية التقنية لـ OpenAI — وGemini وClaude يقتربان بسرعة — يتبخر الثمن الإضافي للحصرية. نمو إيرادات Azure بنسبة 39% في الربع الثاني من السنة المالية 2026 يشير إلى أن الرهان يؤتي ثماره حالياً، لكن حرب البنية التحتية للذكاء الاصطناعي لم تُحسم بعد.
Google Cloud: ميزة Vertex
تملك استراتيجية Google Cloud في الذكاء الاصطناعي ميزة هيكلية يفتقر إليها الاثنان الآخران: إنها تبني النماذج والسيليكون معاً. يقدّم Vertex AI أكثر من 200 نموذج أساسي، لكن Gemini هو الخيار الأصلي — محسّن لبنية TPU التحتية الخاصة بـ Google من اليوم الأول. يقدّم الجيل السابع من TPU، المعروف بـ Ironwood، قدرة 42.5 إكسافلوبس لكل مجموعة — تحسّن 10 أضعاف مقارنة بـ TPU v5p — مع 4,614 TFLOPS بدقة FP8 لكل رقاقة و192 جيجابايت من ذاكرة HBM3e.
تعكس النتائج المالية هذا التكامل الرأسي. بلغت إيرادات Google Cloud 17.7 مليار دولار في الربع الرابع من 2025، بزيادة سنوية قدرها 48% — أسرع معدل نمو بين الثلاثة الكبار. انخفضت تكاليف خدمة Gemini بنسبة 78% خلال عام 2025 من خلال تحسين النموذج ومكاسب الاستغلال. منحنى التكلفة هذا هو السلاح الحقيقي: عندما يصبح الاستدلال رخيصاً بما يكفي، تتوقف المؤسسات عن القلق بشأن أي نموذج أفضل هامشياً وتبدأ في التحسين لنسبة السعر إلى الأداء.
خطة النفقات الرأسمالية لـ Alphabet في 2026 — بين 175 و185 مليار دولار، ما يقارب ضعف إنفاق 2025 — تشير إلى أن Google تستثمر بكل قوتها. من المتوقع أن يدعم أكثر من نصف حوسبة التعلم الآلي في Alphabet أعمال السحابة في السنة المالية 2026. يمثل محسّن النماذج في Vertex AI، الذي يوجّه الاستعلامات تلقائياً إلى أكثر متغيرات Gemini كفاءة لمهمة معينة، نوع ذكاء المنصة الذي يصعب تكراره دون امتلاك كل من النموذج والبنية التحتية.
إعلان
حرب التسعير
انهارت تكاليف الاستدلال لكل رمز بمعدل يتحدى معظم منحنيات تسعير التكنولوجيا. أداء بمستوى GPT-4 الذي كلّف 30 إلى 60 دولاراً لكل مليون رمز عند إطلاقه في مارس 2023 يكلّف الآن ما يقارب 0.40 دولار لكل مليون رمز لقدرة مكافئة — انخفاض بنحو 100 ضعف في أقل من ثلاث سنوات. استقرت أسعار مثيلات GPU من نوع H100 السحابية عند 2.85 إلى 3.50 دولار في الساعة بعد انخفاض بنسبة 64 إلى 75% من ذروتها في 2023.
يستخدم كل مزوّد حوسبة فائقة التسعير كسلاح تنافسي بطريقة مختلفة. تقدّم AWS سعة محجوزة وخطط توفير تكافئ الالتزام بخصومات تصل إلى 40%. تدمج Azure أرصدة ذكاء اصطناعي في الاتفاقيات المؤسسية، مما يجعل فصل إنفاق الذكاء الاصطناعي عن علاقة Microsoft الأوسع صعباً. وتقدّم Google أسعاراً أقل على الاستدلال بالاستفادة من اقتصاديات TPU — هجرة Midjourney من وحدات NVIDIA H100 إلى TPU v6e خفّضت فاتورة الاستدلال الشهرية من 2.1 مليون دولار إلى أقل من 700,000 دولار.
مثيلات Spot — سعة GPU غير مستخدمة تُباع بخصومات 60 إلى 90% — تضيف بُعداً آخر. لكن مع تدفق أعباء الاستدلال الإنتاجية إلى مجمعات Spot، أصبحت السعة أندر والخصومات تتقلّص ومعدلات الانقطاع ترتفع. عصر وحدات GPU المخفضة عبر Spot ينتهي تماماً مع تسارع الطلب على توسيع حوسبة الذكاء الاصطناعي.
بالنسبة للمؤسسات التي تقيّم الصورة الكاملة للتكلفة، فهم كيف تشغّل وحدات GPU اقتصاد الذكاء الاصطناعي ومشهد البنية التحتية السحابية للذكاء الاصطناعي التوليدي الأوسع يهم بقدر مقارنة الأسعار المعلنة.
السحابة المتعددة للذكاء الاصطناعي: صمام الأمان
قلق الارتباط بمزوّد واحد هو المحرّك الصامت لبنية السحابة المؤسسية. وفقاً لتقرير Flexera State of the Cloud 2024، تستخدم 89% من المؤسسات استراتيجية سحابة متعددة، حيث يذكر 42% منع الارتباط كالدافع الأساسي. في الذكاء الاصطناعي، مخاطر الارتباط أكثر حدة من السحابة التقليدية: نموذج مضبوط بدقة على واجهة Bedrock لا يُنقل بسهولة إلى Vertex AI، وخطوط بيانات التدريب المبنية على SageMaker لا ترفع وتنقل إلى Azure ML.
Kubernetes يبرز كطبقة تجريد. أطلقت Cloud Native Computing Foundation برنامج المطابقة المعتمد لـ Kubernetes AI في أواخر 2025، واضعةً معايير لتشغيل أعباء الذكاء الاصطناعي بقابلية النقل عبر المزودين. الهدف هو حزم منظومات ذكاء اصطناعي كاملة — خدمة النماذج وخطوط البيانات ونقاط الاستدلال — في عمليات نشر قابلة للتكرار تعمل على أي مجموعة معتمدة.
الواقع العملي أكثر فوضوية. قابلية نقل النماذج موجودة على مستوى صيغ ONNX وHugging Face، لكن التحسينات الخاصة بالمنصة (نوى Trainium وتجميع TPU XLA والضبط الدقيق لـ GPT-4 الحصري على Azure) تخلق ارتباطاً ناعماً لا تحله أي طبقة تجريد بالكامل. المؤسسات الجادة بشأن السحابة المتعددة للذكاء الاصطناعي تستثمر عادةً 18 إلى 24 شهراً في بناء التجريد، مع توفير تكاليف يتراوح بين 20 و40% يبرر الأعباء الهندسية.
ما يحسم الفائز
حروب السحابة الذكية لن تُحسم بالشركة التي تملك أفضل نموذج. النماذج تتقارب في القدرة، والبدائل مفتوحة المصدر مثل Llama وMistral تسدّ الفجوة، وعمر النصف لأي أفضلية متقدمة يُقاس بالأشهر.
الفائز ستحدده ثلاثة عوامل: تكلفة الاستدلال لكل رمز، وعمق تكامل المنظومة، والقدرة على التعامل مع التعقيد التشغيلي لتشغيل الذكاء الاصطناعي على نطاق واسع. AWS تملك أوسع منظومة. Azure تملك أعمق تكامل مؤسسي. Google تملك أرخص استدلال وأكثر المنظومات تكاملاً رأسياً.
بالنسبة لـ مشغلي مراكز البيانات الذين يوسّعون البنية التحتية للذكاء الاصطناعي، يحدد اختيار مزوّد الحوسبة الفائقة كل شيء من بنية الطاقة إلى طوبولوجيا الشبكة. الرهانات تمتد إلى ما هو أبعد من تفضيلات البرمجيات.
النتيجة الأكثر ترجيحاً ليست فائزاً واحداً بل احتكار قلّة دائم، حيث يهيمن كل مزوّد على شريحة مختلفة: AWS للمرونة متعددة النماذج، Azure للمؤسسات المرتبطة بـ Microsoft، وGoogle للاستدلال المحسّن من حيث التكلفة على نطاق واسع. حروب السحابة الذكية ليست عن احتلال السوق بأكمله. إنها عن ضمان أن تكون شريحتك منه الأكثر ربحية.
الأسئلة الشائعة
ما المقصود بـ AI Cloud Wars؟
يتناول هذا المقال الجوانب الأساسية لهذا الموضوع، ويستعرض الاتجاهات الحالية والجهات الفاعلة الرئيسية والتداعيات العملية على المهنيين والمؤسسات في عام 2026.
لماذا يُعد هذا الموضوع مهمًا؟
يكتسب هذا الموضوع أهمية كبيرة لأنه يؤثر بشكل مباشر على كيفية تخطيط المؤسسات لاستراتيجيتها التقنية وتخصيص مواردها وتموضعها في مشهد سريع التطور.
ما أبرز النقاط المستخلصة من هذا المقال؟
يحلل المقال الآليات الرئيسية والأطر المرجعية والأمثلة الواقعية التي تشرح كيفية عمل هذا المجال، مستندًا إلى بيانات حديثة ودراسات حالة عملية.
المصادر والقراءات الإضافية
- The Big Three Grab Two-Thirds of $107B Cloud Market in Q3 — TechTarget
- Google Cloud’s AI-Powered Surge: $12.3 Billion in Q1 Revenue — CloudSyntrix
- CNCF Launches Kubernetes AI Conformance Program — CNCF
- The Inference Tax Nobody Budgeted For: AWS GPU Costs & AI Infrastructure — SJ Ramblings
- AWS Bullish on Homegrown Trainium AI Accelerators — The Next Platform
- Microsoft’s AI Bet Keeps Paying Off Across Cloud, Copilot and Code — PYMNTS


















