ما تعنيه 112 مليار دولار في ربع واحد فعلياً
أرقام نتائج الربع الأول 2026 للـ hyperscalers تتطلب سياقاً لفهمها. لم يختر AWS و Azure و Google Cloud إنفاق 112 مليار دولار على البنية التحتية في ربع واحد بسبب الحذر المفرط — بل أنفقوها لأن عملاءهم يلتزمون بالبنية التحتية للذكاء الاصطناعي بوتيرة أسرع مما يستطيع المزودون البناء.
أعلنت Google أنها “مقيّدة بالقدرة الحسابية على المدى القريب” رغم التزامها بـ 180-190 مليار دولار في إنفاق رأسمالي سنوي لعام 2026. تجاوزت محفظة عقودها — العقود الموقّعة للخدمات السحابية المستقبلية — 460 مليار دولار في الربع الأول، شبه متضاعفة ربع سنوياً. تُعالج خدمة Google للذكاء الاصطناعي Gemini 16 مليار رمز في الدقيقة عبر الوصول المباشر للواجهة البرمجية، بنمو 60% ربع سنوياً. 330 عميلاً من عملاء Google عالجوا كل منهم أكثر من تريليون رمز في ربع واحد.
سجّل Microsoft Azure نمو إيرادات سحابية بنسبة 40% سنوياً على مسار إنفاق رأسمالي مقدَّر بـ 120 مليار دولار لعام 2026. سجّل Amazon Web Services نمو إيرادات 28% سنوياً بينما ارتفع إنفاقه الرأسمالي المُنوَّع سنوياً إلى 59.3 مليار دولار — شحنت الشركة 2.1 مليون وحدة من رقائق الذكاء الاصطناعي خلال 12 شهراً وجمعت نحو 54 مليار دولار من الديون في مارس 2026.
التحولات الهيكلية الثلاثة وراء الأرقام
أولاً، تجاوز الاستدلال التدريبَ كمحرك رئيسي لطلب الحوسبة. كان تدريب الذكاء الاصطناعي — بناء النماذج وصقلها — محرك طلب GPU الأول من 2022 إلى 2024. في 2026، يستهلك الاستدلال — تقديم مخرجات نماذج الذكاء الاصطناعي للمستخدمين على نطاق واسع — الغالبية العظمى من حوسبة الذكاء الاصطناعي. شركة تنشر نموذجاً من فئة GPT-4 لدعم العملاء عبر 10,000 وكيل تُولّد طلباً مستمراً على الاستدلال 24/7.
ثانياً، تحوّل النموذج الاقتصادي من هوامش البرمجيات إلى هوامش البنية التحتية. تجني شركات البرمجيات المؤسسية التقليدية هوامش إجمالية 70-80% ببيع التراخيص بتكلفة هامشية شبه صفرية لكل عميل إضافي. لخدمات السحابة للذكاء الاصطناعي هيكل تكاليف مختلف جوهرياً: كل طلب استدلال إضافي يكلف حوسبة.
ثالثاً، العواقب التنافسية للبناء الناقص هي خسارة دائمة لحصة السوق. في سحابة الذكاء الاصطناعي، مزود يبني بنيته التحتية بشكل ناقص يخسر العملاء في أسابيع — عميل لا تستطيع أحماله توسيع نطاقها لعدم توافر طاقة GPU سيهاجر إلى منافس. إنفاق الـ 112 مليار دولار ربع السنوي مدفوع جزئياً بالخوف الوجودي من أن يكون المزود الذي يقول “لا طاقة متاحة” في اللحظة التي يريد فيها عميل رئيسي التوسع.
إعلان
ما تُخبرنا به الأرقام عن تصميم مراكز البيانات
يتركّز الإنفاق في ثلاث فئات بنية تحتية محددة:
التبريد السائل بكثافة GPU عالية. تتطلب مجموعات التدريب والاستدلال كثافة طاقة أعلى 10-100 مرة لكل رف مقارنةً بنشر الخوادم التقليدية. تنشر Google و Microsoft و Amazon جميعها التبريد السائل المباشر في منشآت مراكز البيانات الجديدة.
الرقائق المخصصة لأحمال عمل الذكاء الاصطناعي. طوّرت جميع hyperscalers الثلاثة أو تُطوّر معجّلات ذكاء اصطناعي مخصصة: وحدات TPU من Google، ورقائق Trainium و Inferentia من AWS، ومعجّل Maia من Microsoft. تشمل 2.1 مليون وحدة رقاقة التي شحنها Amazon رقائقها المخصصة جانباً لأجهزة NVIDIA.
تأمين الطاقة بنطاق غير مسبوق. مركز بيانات ذكاء اصطناعي بـ 200 ميغاواط يستهلك كهرباءً بقدر مدينة متوسطة الحجم. تستثمر hyperscalers في اتفاقيات شراء طاقة طويلة الأجل وعقود طاقة متجددة بنطاق لم يكن موجوداً في صناعة التكنولوجيا قبل ثلاث سنوات.
ما يجب على مشتري السحابة المؤسسية أخذه
1. التفاوض على التزامات الطاقة الآن، لا عند ذروة الطلب
يؤكد إعلان Google العلني بأنها “مقيّدة بالقدرة الحسابية على المدى القريب” — رغم الاستثمار التاريخي في البنية التحتية — أن طاقة GPU للذكاء الاصطناعي موردٌ مُقنَّن. العملاء المؤسسيون الذين يتفاوضون على التزامات الطاقة وقت تجديد العقد في وضع أقوى من أولئك الذين يطلبون طاقة GPU عند الطلب. عقود حجز الطاقة وخصومات المثيلات المحجوزة أكثر ملاءمةً اليوم مما ستكون عليه عندما تتنافس أحمال عمل الذكاء الاصطناعي على نفس مجموعات GPU.
2. التنويع بين hyperscalers و Neoclouds
التزامن في الاستثمارات الضخمة للمزودين الثلاثة يُنشئ نافذة مؤقتة حيث يتنافسون بقوة للحصول على التزامات ذكاء اصطناعي المؤسسات. هذه الديناميكية تُنتج تنازلات في التسعير وتحسينات في مستوى الخدمة والتزامات دعم ستتقلص بمجرد استقرار مواضع السوق. مهندسو السحابة المؤسسية الذين يُقيّمون hyperscalers و neoclouds معاً في نفس عملية طلب العروض يحصلون على شروط تجارية أفضل.
3. بناء حوكمة التكاليف قبل توسيع استدلال الذكاء الاصطناعي
وجد تقرير State of FinOps 2026 أن 98% من المنظمات تُدير الآن إنفاق الذكاء الاصطناعي رسمياً — مقارنةً بـ 31% قبل عامين. السبب بسيط: تكاليف استدلال الذكاء الاصطناعي تتزايد بشكل غير خطي مع الاستخدام. شركة ترى اعتماد مساعدها الذكي الداخلي ينمو من 100 إلى 1,000 مستخدم يومي تواجه زيادة 10 أضعاف في تكاليف الحوسبة. مهندسو السحابة الذين يوسّعون أحمال عمل الذكاء الاصطناعي يجب أن يُطبّقوا وسم التكاليف وتنبيهات الميزانية وحدود التحجيم التلقائي قبل انفجار الاستخدام.
سيناريو التصحيح
تُنشئ وتيرة الإنفاق الرأسمالي الفصلي البالغة 112 مليار دولار مخاطر سيناريو يجب على مشتري السحابة المؤسسية مراعاتها في التخطيط طويل الأمد: تصحيح للطلب. إذا تباطأ اعتماد الذكاء الاصطناعي المؤسسي — بسبب رياح اقتصادية معاكسة أو قيود تنظيمية على نشر الذكاء الاصطناعي أو موجة من الشركات التي تكتشف أن مشاريع الذكاء الاصطناعي تُقدّم قيمة أقل مما هو متوقع — ستكون hyperscalers قد بنت بنيةً تحتية ضخمة مقارنةً بالطلب.
توقعات Bank of America بـ 175 مليار دولار من إصدار ديون hyperscalers في 2026 — أكثر من 6 أضعاف المتوسط السنوي الخمسي السابق — تعني أن المزودين الثلاثة حمّلوا أنفسهم رافعة مالية كبيرة تجاه أطروحة طلب الذكاء الاصطناعي. يجب على استراتيجية السحابة المؤسسية التحوط ضد كلا السيناريوين: التفاوض على التزامات متعددة السنوات تُثبّت الأسعار الحالية لأحمال العمل المتوقعة، مع الحفاظ على المرونة لأحمال العمل المتغيرة لالتقاط تصحيحات الأسعار المحتملة.
الأسئلة الشائعة
لماذا تُنفق hyperscalers 112 مليار دولار في ربع واحد في حين لا يزال اعتماد الذكاء الاصطناعي مبكراً؟
تبني hyperscalers البنية التحتية الآن لأن مراكز البيانات تستغرق 18-36 شهراً للتصميم والترخيص والبناء. تجاوزت محفظة عقود Google 460 مليار دولار من عقود العملاء الموقّعة، وطلب استدلال الذكاء الاصطناعي ينمو بنسبة 60% ربع سنوياً لدى Google Cloud وحدها. العملاء التزموا بالفعل بالإنفاق، وتسابق hyperscalers لبناء البنية التحتية للوفاء بتلك الالتزامات قبل المنافسين.
كيف تؤثر سباق الإنفاق الرأسمالي للـ hyperscalers على أسعار السحابة لعملاء المؤسسات؟
على المدى القريب، يُولّد التنافس للحصول على عقود ذكاء اصطناعي المؤسسات تنازلات في التسعير وضمانات للطاقة وتحسينات في الدعم. على المدى المتوسط (2026-2027)، مع دخول الطاقة الجديدة لمراكز البيانات الخدمة، ستنخفض قيود توافر GPU وستستمر أسعار الاستدلال لكل رمز في التراجع. تتوقع Bank of America إصدار ديون hyperscalers بـ 175 مليار دولار في 2026 — مما يُنشئ ضغطاً مالياً قد يُسرّع المنافسة على الأسعار في سيناريو فائض الطاقة.
ما الفرق بين حوسبة تدريب الذكاء الاصطناعي وحوسبة الاستدلال، ولماذا تهم الإنفاق السحابي؟
تدريب الذكاء الاصطناعي هو عملية بناء نموذج وصقله — كثيف الحوسبة لكن يحدث مرة لكل إصدار نموذج. استدلال الذكاء الاصطناعي هو تقديم النموذج المُدرَّب للمستخدمين — يعمل بشكل مستمر لكل استعلام. في 2026، تجاوز الاستدلال التدريب كمحرك رئيسي لطلب حوسبة الذكاء الاصطناعي لأن عمليات نشر الذكاء الاصطناعي المؤسسية في الإنتاج على نطاق واسع، مُولّدةً حركة استعلام مستمرة. الاستدلال هو المحرك الرئيسي لاستثمار 112 مليار دولار في البنية التحتية الفصلية.
—
المصادر والقراءات الإضافية
- ربع الـ 112 مليار دولار: hyperscalers يراهنون على الذكاء الاصطناعي — Tom Tunguz
- Google Cloud مقابل AWS مقابل Azure: سباق البنية التحتية للذكاء الاصطناعي في الربع الأول 2026 — MindStudio
- CapEx الذكاء الاصطناعي 2026: سباق 690 مليار دولار — Futurum Group
- شركات التكنولوجيا الكبرى ستُنفق 700 مليار دولار على البنية التحتية للذكاء الاصطناعي هذا العام — Fortune
- تقرير State of FinOps 2026 — FinOps Foundation














