بنية الرهان
الاستثمار المُعلن في أبريل 2026 أكثر تعقيداً من مجرد رقم رئيسي. يتوزع إجمالي الـ 40 مليار دولار على شريحتين: 10 مليارات مُنشرة فوراً بتقييم 350 ملياراً لـ Anthropic، و30 ملياراً إضافية مشروطة بتحقيق Anthropic «أهدافاً أداء معينة» — شروط لا تزال غير مكشوفة لكنها تتضمن على الأرجح معايير قدرة النماذج وأهداف إيرادات الشركات وعتبات التوسع في النشر.
ومكوّن الحوسبة قد يفوق في أهميته النقد. تلتزم Google Cloud بتوفير 5 غيغاواط من طاقة الحوسبة لـ Anthropic على مدى خمس سنوات — وهو رقم يُعادل نحو 10% من إجمالي طاقة السحابة العالمية الحالية لـ Google. يتراكم هذا فوق شراكة سابقة مع Broadcom مُعلنة في أبريل 2026، توفّر 3.5 غيغاواط من الطاقة القائمة على TPU ابتداءً من 2027، عبر ترتيب رقائق مخصصة يتجاوز قيود سلسلة توريد وحدات GPU من NVIDIA.
الالتزام المُشترك بالحوسبة — 5 غيغاواط من Cloud + 3.5 غيغاواط من Broadcom TPU ابتداءً من 2027 — يُمنح Anthropic عمقاً في البنية التحتية لا تستطيع سوى القليل من المؤسسات خارج نطاق مقدمي الخدمات الكبار الوصول إليه. بات سباق البنية التحتية للذكاء الاصطناعي منافسةً بين فريقين.
ثلاثة إشارات مخفية في بنية الاستثمار
تُشفّر بنية الاستثمار معلومات استراتيجية تتجاوز التقييم الرئيسي. ثلاث إشارات تهمّ المؤسسات والمراقبين.
الإشارة 1: الشرائح المشروطة بالأداء آلية تحكّم
الشريحة المشروطة البالغة 30 مليار دولار ليست رأس مال مخاطرة أو نمو اعتيادياً. الاستثمار المشروط بالأداء على هذا الحجم يمنح Google تأثيراً ملموساً في الأولويات الاستراتيجية لـ Anthropic — فالأهداف المحددة ستُحدد ما إذا كانت الدورة التطويرية القادمة لـ Anthropic تُعطي الأولوية للقدرة (لتحقيق معايير الإيرادات) أم للسلامة (لصون تمايزها في السوق). التزام Anthropic العلني بالذكاء الاصطناعي الدستوري وإطار السلامة ASL المحافظ كان تمييزها الأساسي في السوق المؤسسي. إذا كانت أهداف الأداء مُوجَّهة بالأساس نحو الإيرادات، فإن البنية المشروطة تُنشئ ضغطاً لتسريع النشر على حساب دورات التقييم الأمني الممتدة التي أنتجت ملف مخاطر Claude المميز.
الإشارة 2: الحوسبة هي رأس المال الجديد
لا تكتفي Google بكتابة شيك — بل توفّر البنية التحتية التي تُتيح نماذج الجيل القادم لـ Anthropic. في 2026، يستلزم تدريب نموذج من الفئة الأمامية وصولاً مستداماً إلى عشرات الآلاف من المسرّعات عالية الذاكرة بتكاليف لا تُتاح إلا عبر شراكات مقدمي الخدمات الكبار أو برامج الحوسبة السيادية. بالتزامها بـ 5 غيغاواط على خمس سنوات، توفّر Google ما يُشبه اشتراك البنية التحتية الذي لا يستطيع Anthropic تمويله ذاتياً بأي تقييم رأسمالي واقعي. ومن ثمّ: تُصبح طبقة الحوسبة للذكاء الاصطناعي نقطة النفوذ الأساسية في منظومة الذكاء الاستناعي. من يتحكم في الحوسبة يتحكم في خارطة طريق القدرات.
الإشارة 3: الثقة المؤسسية في Claude باتت مُوسَّطة بالمصالح التجارية لـ Google
تمّ تموضع Claude من Anthropic — وشراؤه — من قِبَل فرق الامتثال والقانونية في المؤسسات باعتباره البديل «الأول بالسلامة» عن OpenAI. التشابك المالي والتحتي العميق لـ Google يُغيّر حسابات الاستقلالية. Google منافس مباشر لناشري البرمجيات المؤسسية الذين يستخدمون Claude (Salesforce وSAP وServiceNow أعلنوا جميعاً تكاملات مع Claude). حين يكون مزوّد البنية التحتية الأساسي منافساً مباشراً للعملاء الرئيسيين، يضعف إشارة الاستقلالية التي برّرت علاوة Claude المؤسسية.
إعلان
ما يجب على قادة المؤسسات فعله
1. ابنِ استراتيجية ذكاء اصطناعي بمزوّدَيْن قبل أن يُغلق التوطيد النافذة
تغطّي تحالفا OpenAI-Microsoft وAnthropic-Google الآن المنصتين الرئيسيتين للذكاء الاصطناعي المؤسسي. نافذة إنشاء استراتيجية حقيقية بمزوّدَيْن — الحفاظ على علاقات تجارية ذات مغزى مع كليهما — تضيق. المؤسسات التي تتوطّد بالكامل على منصة واحدة هذا العام ستتفاوض على التجديدات من موقع أضعف في 2027. أنشئ أعباء عمل إنتاجية على كلا المنصتين الآن، حتى لو كان التوزيع 80/20. الالتزام بنسبة 20% للمزوّد الثانوي خيار لا تكلفة — يحفظ الرافعة ويوفّر مسار انتقال موثّقاً.
2. أعِد تقييم علاوة سلامة Claude في ضوء علاقة Google
إذا اختارت مؤسستك Claude عوضاً عن GPT-5.5 تحديداً لملفه الأمني — معايرة محافظة للمخرجات، وإطار ASL، واستعداد للتراجع عن المخرجات — فيجب أن يحثّ تحالف Google البالغ 40 مليار دولار على إعادة تقييم ما إذا كانت هذه العلاوة الأمنية قابلة للاستدامة. ليس هذا استنتاجاً بأن الملف الأمني قد تغيّر: منهجية الذكاء الاصطناعي الدستوري لـ Claude لا تزال سليمة. بل هو تعليمات لإعادة النظر في افتراض أن التوجّه الأمني لـ Anthropic سيظل مستقلاً تماماً عن المصالح التجارية لمزوّدها الأساسي للبنية التحتية على أفق استثمار 5 سنوات.
3. راقب مقياس تركّز الحوسبة لا مجرد معيار النموذج
كانت شراء الذكاء الاصطناعي المؤسسي في 2024-2025 مدفوعاً بمقارنات المعايير المرجعية. يجعل تحالف حوسبة Google-Anthropic مقياساً مختلفاً أكثر أهمية: تركّز الحوسبة. من يتحكم في البنية التحتية التي تُدرَّب عليها النماذج التي تعتمد عليها وتُشغَّل؟ نموذج مُدرَّب ومُشغَّل على بنية تحتية Google، من قِبَل شركة تموّلها Google بنسبة تتجاوز 85% (مجمّعة من الحصة القائمة البالغة نحو 30% والالتزام الجديد)، يُقدّم اقتراحاً مختلفاً من حيث استقلالية المورّد. لمشتري القطاعات المنظَّمة — الخدمات المالية والرعاية الصحية والحكومة — لهذا السؤال في التركّز دلالات قانونية وشرائية لا تُجسّدها معايير القدرة المجرّدة.
4. اضغط على كلا المزوّدَيْن للحصول على ضمانات استقلالية تعاقدية
مع تعمّق الالتزام المالي لـ Google تجاه Anthropic، ينبغي للمشترين في المؤسسات السعي للحصول على ضمانات تعاقدية صريحة باستقلالية النموذج: تأكيد بأن سياسات مخرجات Claude وقيود المحتوى وعتبات السلامة لا يمكن تعديلها من طرف Google من جانب واحد في إطار اتفاقية الاستثمار. وبالمثل، ينبغي للمؤسسات على المنظومة المُدمجة في Microsoft من OpenAI السعي للحصول على ضمانات بأن شروط API لـ OpenAI لا تخضع لتعديل أحادي بتوجيه من Microsoft. فعل المطالبة بهذه الضمانات يكشف الأحكام التعاقدية المحددة التي تحكم علاقة المورّد، والاستجابة (أو عدمها) من المزوّدين معلومة في حد ذاتها.
مسألة المنافسة
سيجذب تحالف Google-Anthropic تدقيقاً من حيث مكافحة الاحتكار في ثلاث ولايات قضائية على الأقل: الولايات المتحدة (لدى FTC وDOJ تحقيقات مفتوحة في المنافسة في الذكاء الاصطناعي)، والاتحاد الأوروبي (قانون الأسواق الرقمية ومراجعة الشركات الكبرى للذكاء الاصطناعي الجارية من المفوضية الأوروبية)، والمملكة المتحدة (CMA). المخاوف المحددة: إذا كانت Google تتحكم في بنية تحتية لمزوّد الذكاء الاصطناعي المؤسسي الثاني بينما تُشغّل Google Cloud كمنصة ذكاء اصطناعي منافسة، فإنها تمتلك حوافز بنيوية لتثبيط تكافؤ أداء Anthropic أو تأخير توفر البنية التحتية في الفترات الحرجة.
وبالنسبة للمؤسسات، تُشكّل حالة عدم اليقين التنظيمية في حد ذاتها عاملاً خطراً. نتيجة تُفضي إلى أن علاقة Google-Anthropic تُشكّل ترتيباً مُعيقاً للمنافسة قد تستلزم تدابير هيكلية — تجريداً قسرياً من التزامات الحوسبة، وقابلية تشغيل بيني مُلزَمة لـ API — تُعطّل التكاملات المؤسسية المبنية على الترتيب الحالي. أدرج هذا السيناريو التنظيمي في مصفوفة مخاطر الموردين للذكاء الاصطناعي إلى جانب المخاوف الأكثر شيوعاً من إيقاف النماذج وتغييرات الأسعار.
الأسئلة الشائعة
لماذا تستثمر Google في Anthropic بينما تمتلك نموذجها Gemini؟
تُنفّذ Google استراتيجية ذكاء اصطناعي على جبهتين: Gemini كمنصة مستهلكين ومؤسسات تحت سيطرتها المباشرة، وAnthropic كبديل مؤسسي مُتمايز بالسلامة يستهدف شريحة مشترين مختلفة (المؤسسات المُوجَّهة بالامتثال التي تُفضّل الملف الأمني المحافظ لـ Claude). يمنح الاستثمار في Anthropic كذلك Google معلومات استراتيجية عن مقاربات تطوير الذكاء الاصطناعي الأمامي ويضمن حصة كبيرة من إنفاق Anthropic على الحوسبة عبر البنية التحتية لـ Google Cloud.
ماذا يعني تقييم Anthropic بـ 350 مليار دولار لتسعير الذكاء الاصطناعي المؤسسي؟
يستلزم تقييم Anthropic بـ 350 مليار دولار نمواً كبيراً في الإيرادات المستقبلية المتوقعة — يتجاوز بكثير مستويات تسعير API المؤسسية الحالية. لتبرير هذا التقييم بمضاعفات الإيرادات المعيارية، تحتاج Anthropic إلى توسيع الاستخدام المؤسسي لـ Claude بترتيب من حيث الكبر على مدى 3 إلى 5 سنوات القادمة. هذا يعني أن ضغط الأسعار مرجّح أن يرتفع لا أن ينخفض، وأن المؤسسات التي تُبرم عقوداً متعددة السنوات مع Claude الآن قد تستفيد من اليقين السعري قبل أن يدفع ضغط التقييم نحو زيادات الأسعار.
كيف يؤثر تحالف Google-Anthropic على بدائل الذكاء الاصطناعي ذات الأوزان المفتوحة؟
يُسرّع التحالف تركّز الحوسبة الذي يجعل النماذج الأمامية المغلقة أصعب في الاستنساخ بمقاربات الأوزان المفتوحة. غير أن إصدار DeepSeek V4-Pro في أبريل 2026 بـ 3.48 دولار/مليون رمز — ومستوى أداء يُعادل 3 إلى 6 أشهر دون الأمامي — يُثبت أن نماذج الأوزان المفتوحة تواصل تضييق فجوة الأداء. الانعكاس العملي للمؤسسات: تغدو نماذج الأوزان المفتوحة (DeepSeek وLlama وMistral) أكثر قيمة استراتيجياً كتحوّط ضد تركّز موردي النماذج المغلقة، لا أقل.
—














