الرقم الذي يُحدّد 2026 لـ Amazon
في مكالمة أرباح الربع الرابع من 2025، لم تُقدّم Amazon توجيهاً للنفقات الرأسمالية لعام 2026 بقدر ما أعادت صياغة المحادثة بأكملها حول استثمار البنية التحتية السحابية. ألزم المدير التنفيذي Andy Jassy Amazon بـ حوالي 200 مليار دولار من النفقات الرأسمالية في 2026، ارتفاعاً من حوالي 128 مليار دولار في 2025 — زيادة 56 % على أساس سنوي ورقم تجاوز تقديرات Wall Street بحوالي 50 مليار دولار. تفاعلت السوق فوراً: انخفضت أسهم Amazon أكثر من 10 % في التداول بعد ساعات العمل.
الإنفاق مستهدف. كانت الإدارة صريحة بأن الجزء الأكبر من النفقات الرأسمالية لعام 2026 يتدفق إلى AWS والبنية التحتية للذكاء الاصطناعي، مع التركيز على ثلاث أولويات: السيليكون المخصّص (Trainium)، وسعة مراكز البيانات (الطاقة والأراضي)، وبناء مجموعة الحوسبة المرتكزة على Anthropic. انكمش التدفق النقدي الحر إلى 11.2 مليار دولار في 2025 على خلفية زيادة قدرها 50.7 مليار دولار في مشتريات الممتلكات والمعدات، ومن المتوقع أن يتعمّق هذا الضغط طوال 2026.
Trainium: استراتيجية الشريحة التي تُؤتي ثمارها
إذا كانت خط إنتاج واحد يُفسّر استعداد Amazon لنشر 200 مليار دولار، فهو Trainium. تطوّر مسرع الذكاء الاصطناعي المخصّص من Amazon — المصمّم من قبل Annapurna Labs، ذراع السيليكون لـ AWS — عبر ثلاثة أجيال بتتابع سريع، ويتجاوز طلب العملاء الآن العرض.
- Trainium2 يقدّم حوالي 30 % أداءً أفضل لكل دولار مقارنة بوحدات GPU المماثلة وهو مباع إلى حد كبير. أكثر من 1 مليون رقاقة Trainium2 مُنتشرة داخل Project Rainier، أحد أكبر مجموعات الحوسبة للذكاء الاصطناعي في العالم، الذي دخل الخدمة في أواخر 2025 مع 500,000 رقاقة في الشريحة الأولية ويستخدم بشكل رئيسي من قبل Anthropic.
- Trainium3 بدأ الشحن في أوائل 2026 مع تحسن إضافي بنسبة 30-40 % في الأداء لكل دولار مقارنة بـ Trainium2، وهو مشترك بالكامل تقريباً بعد الشحنات الأولية.
- Trainium4 لا يزال على بعد حوالي 18 شهراً من التوفر الواسع، وجزء كبير من سعته محجوز بالفعل من قبل عملاء مثبتين.
يبلغ إجمالي النشر عبر الأجيال الثلاثة الآن حوالي 1.4 مليون رقاقة Trainium. قدّرت Amazon علناً القيمة الاستراتيجية: من المتوقع أن يوفّر Trainium لـ Amazon عشرات المليارات من دولارات النفقات الرأسمالية سنوياً مقارنة بشراء وحدات GPU من NVIDIA، ويُقدّم عدة مئات من النقاط الأساسية من تحسّن هامش التشغيل على أعباء الاستدلال لأن Bedrock يُشغّل معظم الاستدلال على Trainium، وليس على وحدات GPU المشتراة.
هذه هي الرافعة المخفية في رقم 200 مليار دولار. يتم استيعاب جزء كبير من النفقات الرأسمالية داخلياً بدلاً من دفعها لموردي رقائق خارجيين، مما يجعل ناتج الحوسبة لكل دولار أعلى مادياً من الإنفاق المماثل لدى المنافسين الذين يعتمدون بشكل أكبر على NVIDIA.
شراكة Anthropic: عميل واحد، مليون رقاقة
أصبحت العلاقة مع Anthropic الآن أهم شراكة تجارية في أعمال AWS السحابية. استثمرت Amazon 8 مليارات دولار في Anthropic منذ 2023، بما في ذلك شريحة إضافية بقيمة 4 مليارات دولار أُعلن عنها في التعميق الأخير للتعاون. سمّت Anthropic AWS شريكاً رئيسياً للتدريب والتزمت باستخدام أكثر من 1 مليون رقاقة Trainium لتدريب ونشر نماذج Claude.
Project Rainier، مجموعة Trainium2 التي تضم 500,000 رقاقة والتي دخلت الخدمة في أواخر 2025، هي المرتكز المادي لهذا الالتزام. المرحلة التالية هي توسيع Trainium متعدد الجيجاواط مجدول لـ 2026-2027، والذي سيرى Anthropic يُشغّل غالبية حمل استدلال Claude الخاص به — وجزء كبير من تدريبه — على سيليكون AWS بدلاً من وحدات GPU من NVIDIA.
العلاقة ليست حصرية. تستخدم مصنع الذكاء الاصطناعي متعدد السحابة لـ Anthropic أيضاً وحدات TPU من Google، ولدى الشركة علاقة Claude-on-Vertex منفصلة مع Google Cloud. لكن من حيث قوة الحوسبة الخام، أصبحت AWS الآن أكبر شريك للبنية التحتية لـ Anthropic بفارق واسع.
Bedrock واقتصاد الاستدلال
على الجانب المواجه للعملاء، أصبحت Amazon Bedrock بهدوء حصان العمل للمؤسسات لاستدلال الذكاء الاصطناعي. تُتيح الخدمة للعملاء استدعاء Claude وLlama وMistral وTitan ونماذج Nova الخاصة بـ Amazon من خلال واجهة برمجة تطبيقات واحدة، مع إخفاء اختيار المسرّع وقت التشغيل عن المطور. ما هو أقل وضوحاً هو أن معظم استدلال Bedrock يُنفّذ الآن على Trainium، مما يمنح Amazon ملفاً للهوامش لا يمكن لمنافسي الاشتراك مضاهاته.
يعمل إيراد AWS للذكاء الاصطناعي بمعدل أكثر من 15 مليار دولار سنوياً، وبلغ AWS ككل 35.6 مليار دولار في إيرادات الربع الرابع 2025، بزيادة 24 % على أساس سنوي. وجّهت الشركة إلى معدل تشغيل سنوي لـ AWS يتجاوز 140 مليار دولار عند الدخول إلى 2026 — مع الجزء الخاص بالذكاء الاصطناعي ينمو بشكل أسرع بكثير من الحوسبة والتخزين التقليديين.
إعلان
سعة الطاقة: القيد المادي
خلف الأرقام بالدولار يوجد بناء مادي على نطاق لم تحاوله صناعة السحابة من قبل. أضافت AWS 3.9 جيجاواط من سعة الطاقة الجديدة في 2025، والتزمت علناً بـ مضاعفة سعة الطاقة الإجمالية بحلول نهاية 2027. هذا خط أنابيب إضافي بعشرات الجيجاواط يجب أن يجتاز الربط بالشبكة والتصاريح والبناء في أقل من عامين.
مثل Microsoft، تتبع Amazon خيارات خارج الشبكة، والتمويل المباشر للبنية التحتية للمرافق، واتفاقيات شراء الطاقة النووية، والتنويع الجغرافي إلى أسواق ثانوية لتسريع البناء. تشير تقارير عملاء AWS إلى أن السعة ضيقة جداً لدرجة أن المؤسسات تحاول شراء كتل سعة إقليمية كاملة بدلاً من التفاوض على السعر.
لماذا ذُعرت السوق — ولماذا قد تكون مخطئة
عكس انخفاض 10 % بعد ساعات العمل قلقاً محدداً: 200 مليار دولار من النفقات الرأسمالية مقابل 11.2 مليار دولار من التدفق النقدي الحر غير مستدامة ما لم ترتفع إيرادات الذكاء الاصطناعي بسرعة كافية لتعويض الاستهلاك. تجاوزت نسبة النفقات الرأسمالية إلى التدفق النقدي التشغيلي لـ Amazon الآن المستويات التي شوهدت آخر مرة خلال بناء AWS الأصلي في منتصف 2010s.
تستند الحالة الصاعدة إلى ثلاث ركائز:
- اقتصاديات Trainium. السيليكون الداخلي بأداء أفضل بنسبة 30-40 % لكل دولار هو ميزة هيكلية في الهامش تتراكم مع نمو الحجم.
- طلب عملاء ملتزم. صرّح Jassy صراحة أن الاستثمارات “مدعومة بطلب عملاء ملتزم”. تُشير هذه اللغة إلى التزامات تعاقدية متعدّدة السنوات، وليس توقعات تخمينية.
- Anthropic كمرتكز. عميل واحد يُشغّل أكثر من مليون مسرع يستوعب حصة مادية من مخاطر النفقات الرأسمالية منذ اليوم الأول.
الحالة الهابطة أبسط: إذا خيّب منحنى تحقيق الدخل من الذكاء الاصطناعي الآمال في أي وقت بين 2026 و2028، فإن Amazon معرضة للاستهلاك على أصول لم تعد تُولّد عوائد كافية. هذه هي نفس المخاطر المضمنة في ميزانية 2026 لكل hyperscaler، فقط بأكبر نطاق مطلق.
تداعيات المؤسسة
- أصبح Bedrock منصة استدلال المؤسسات الافتراضية. مزيج اختيار النماذج وكفاءة تكلفة Trainium والبصمة المؤسسية الحالية لـ AWS يجعله مسار أقل مقاومة للشركات غير القائمة على الذكاء الاصطناعي.
- Trainium الآن خيار للمشتريات، وليس فضولاً. لأعباء الاستدلال الكبيرة، يمكن أن يُحرّر تحديد Trainium في دعوات العطاءات خصومات كبيرة مقارنة بالبدائل القائمة على GPU.
- ستظل السعة مُقنّنة. إذا احتاجت مؤسستك سعة AWS جديدة للذكاء الاصطناعي في 2026، توقّع قوائم انتظار والتزامات نسخ محجوزة ونوافذ توفر خاصة بالمنطقة.
- متعدد السحابة هو التحوّط. استخدام Anthropic نفسها لكل من AWS ووحدات TPU من Google هو النموذج الذي يجب أن تدرسه معظم المؤسسات — مخاطر التركّز على hyperscaler واحد لم تعد نظرية بحتة.
ما يجب مراقبته بعد ذلك
- أرقام النفقات الرأسمالية الفعلية للربع الثاني 2026 — تأكيد أو مراجعة مسار 200 مليار دولار.
- توفر Trainium4 — الجيل التالي، المحجوز جزئياً بالفعل.
- مراحل توسع Project Rainier — بناء حوسبة Anthropic متعدد الجيجاواط.
- كشف إيرادات AWS AI — طلب التفصيل الأكثر متابعة من المحللين.
قرّرت Amazon المراهنة على العقد القادم من أعمالها على بناء البنية التحتية للذكاء الاصطناعي. 200 مليار دولار في سنة واحدة هو أوضح تعبير عن هذه القناعة — والاختبار الأوضح لما إذا كانت الأرقام تعمل.
الأسئلة الشائعة
ما الذي تدفع مقابله فعلاً النفقات الرأسمالية البالغة 200 مليار دولار لـ Amazon؟
ثلاث أولويات: سعة مراكز بيانات AWS (الطاقة والأراضي والمباني)، والسيليكون المخصّص (رقائق Trainium المصنّعة من قبل Annapurna Labs)، وتوسع مجموعة الحوسبة المرتكزة على Anthropic. جزء كبير من الإنفاق داخلي — تبني Amazon رقائقها الخاصة بدلاً من شراء وحدات GPU من NVIDIA، مما يُبقي الدولارات داخل الشركة ويحسن ناتج الحوسبة لكل دولار مقارنة بمنافسي hyperscaler.
هل ينبغي أن أفكر في Trainium بدلاً من وحدات GPU من NVIDIA لأعباء عمل الذكاء الاصطناعي الخاصة بي؟
لأعباء الاستدلال الكبيرة على Bedrock، Trainium هو بالفعل الافتراضي — يُوجّه AWS معظم استدلال Bedrock عبر Trainium بشفافية. لتدريب نماذج جديدة، يُقدّم Trainium3 أداءً لكل دولار أفضل بنسبة 30-40 % مقارنة بوحدات GPU المماثلة لكنه يتطلب جهداً هندسياً لنقل أعباء العمل بعيداً عن CUDA. تحديد Trainium في دعوات عطاءات AWS يمكن أن يُحرّر خصومات كبيرة؛ للفرق المقيّدة في أطر CUDA، قد تظل وحدات GPU المسار الأسرع.
ما مدى تركّز رهان Amazon على الذكاء الاصطناعي على Anthropic؟
بشدة. استثمرت Amazon 8 مليارات دولار في Anthropic، وسمّت Anthropic AWS شريكاً رئيسياً للتدريب، والتزمت Anthropic باستخدام أكثر من 1 مليون رقاقة Trainium على Project Rainier وتوسعها متعدد الجيجاواط. إذا تراجع موقف Claude في السوق أو خيّب مسار إيرادات Anthropic، يضعف جزء كبير من أطروحة النفقات الرأسمالية البالغة 200 مليار دولار لـ Amazon للذكاء الاصطناعي. إنها نفس مخاطر التركّز التي تحملها Microsoft مع OpenAI، فقط على بائع مختلف.
المصادر والقراءات الإضافية
- Amazon Ties $200 Billion 2026 Capex Plan to AI, AWS, and Custom Silicon — Converge Digest
- Amazon and Anthropic deepen strategic collaboration — About Amazon
- Amazon’s AI Resurgence: AWS & Anthropic’s Multi-Gigawatt Trainium Expansion — SemiAnalysis
- Amazon Earnings: Guidance for $200 Billion in Capital Expenditure in 2026 — Morningstar
- Amazon Q4 FY 2025: Revenue Beat, AWS +24% Amid $200B Capex Plan — Futurum






