الشريحة التي تتجاوز حاجز 4,600 تيرافلوبس
دخل سباق البنية التحتية للذكاء الاصطناعي مرحلة جديدة. تمثل وحدة معالجة Tensor من الجيل السابع من Google، التي تحمل الاسم الرمزي Ironwood، أكثر خطوات الشركة جرأة في مجال السيليكون المخصص للذكاء الاصطناعي — شريحة صُمّمت من الأساس لعصر الاستدلال. عندما أعلنت Anthropic في الوقت ذاته عن نشر ما يصل إلى مليون من هذه الشرائح لنماذج Claude الخاصة بها، كانت تلك إشارة إلى أن ميزان القوى في حوسبة الذكاء الاصطناعي يبتعد عن عالم يهيمن عليه مورّد واحد لوحدات GPU.
تقدم كل شريحة Ironwood أداءً بقدرة 4,614 تيرافلوبس FP8 — بزيادة 10 أضعاف في الأداء الأقصى مقارنة بـ TPU v5p وأكثر من 4 أضعاف كفاءة سلفها المباشر TPU v6e (Trillium). قصة الذاكرة لا تقل أهمية: 192 جيجابايت من HBM3E لكل شريحة مع عرض نطاق ترددي يبلغ 7.37 تيرابايت/ثانية، أي زيادة بمقدار 6 أضعاف في السعة مقارنة بـ Trillium. بالنسبة للنماذج التي يتزايد حجمها مع كل جيل، فإن هذا الهامش في الذاكرة يزيل الاختناقات التي كانت تجبر المهندسين سابقاً على تجزئة النماذج عبر عدد أكبر بكثير من الشرائح.
تستخدم كل شريحة Ironwood بنية ثنائية الرقائق (dual-chiplet)، حيث تحتوي كل رقاقة على TensorCore واحد وSparseCore اثنين و96 جيجابايت من HBM — مرتبطة بواجهة die-to-die أسرع بست مرات من رابط ICI واحد. تدّعي Google تحسناً بمقدار ضعفين في الأداء لكل واط مقارنة بـ Trillium، وكفاءة طاقة أفضل بنحو 30 ضعفاً مقارنة بأول Cloud TPU لها. في عالم أصبح فيه استهلاك الطاقة في مراكز البيانات قيداً صارماً، فإن مقياس الكفاءة هذا لا يقل أهمية عن الأداء الخام.
الـ Superpod: 9,216 شريحة، 42.5 إكسافلوبس
يتميز Ironwood حقاً عند العمل على نطاق واسع. يربط superpod واحد من Ironwood بين 9,216 شريحة عبر شبكة ربط بين الشرائح (ICI) بسرعة 9.6 تيرابت/ثانية، ليقدم قدرة حوسبة إجمالية تبلغ 42.5 إكسافلوبس من حسابات FP8. لوضع ذلك في سياقه، تجمع قائمة TOP500 لأقوى الحواسيب الفائقة في العالم نحو 15 إكسافلوبس من أداء LINPACK (بدقة FP64) — أي أن superpod واحداً من Ironwood يتجاوز ذلك في أحمال العمل ذات الدقة المنخفضة للذكاء الاصطناعي. كما يجمع الـ superpod نحو 1.77 بيتابايت من ذاكرة HBM3E — وهو ما يكفي لاستيعاب أكبر النماذج المتقدمة بالكامل في ذاكرة عالية النطاق الترددي.
يستهلك الـ superpod بتكوينه الكامل نحو 10 ميغاواط تحت الحمل الكامل. يبدو ذلك هائلاً بالقيمة المطلقة، لكن نسبة الأداء إلى الواط عند 42.5 إكسافلوبس تجعله فعالاً بشكل ملحوظ مقارنة بتجميع قدرة حوسبة مكافئة من وحدات GPU العامة. وفقاً لتحليل SemiAnalysis، فإن التكلفة الإجمالية للملكية (TCO) لكل شريحة Ironwood أقل بنحو 44% من تكلفة ملكية خادم NVIDIA GB200 في تكوينات مماثلة. بالنسبة لعملاء Google Cloud الخارجيين، تكون التكاليف بالساعة أقل بنحو 30% من تسعير GB200.
مصمّم لعصر الاستدلال المتقدم
كانت الأجيال السابقة من TPU تُسوَّق بشكل أساسي كمسرّعات للتدريب. يمثل Ironwood تحولاً مقصوداً. تصفه Google بأنه « أول TPU لعصر الاستدلال »، مصمّم خصيصاً لمتطلبات زمن الاستجابة المنخفض والإنتاجية العالية لخدمة نماذج الذكاء الاصطناعي على نطاق واسع.
تعكس فلسفة التصميم هذه تحولاً جوهرياً في صناعة الذكاء الاصطناعي. مع نضج النماذج المتقدمة، ينتقل عنق الزجاجة الحوسبي من التدريب (يُنفَّذ مرة واحدة) إلى الاستدلال (يُنفَّذ مليارات المرات). تتطلب نماذج الاستدلال المتقدم مثل أنظمة chain-of-thought وبنيات mixture-of-experts وأطر عمل الذكاء الاصطناعي الوكيل (agentic AI) قدرة استدلال مستمرة تفوق بكثير ميزانيات تدريبها. تُحسّن بنية Ironwood التبديل السريع للسياق والتنفيذ بزمن استجابة منخفض وأنماط الاتصال المتقطعة المميزة لخدمة النماذج في الوقت الفعلي.
تستخدم Google هذه الشرائح داخلياً عبر Search وYouTube وGmail وGemini — وهي خدمات تعالج مجتمعة مليارات استعلامات الاستدلال يومياً. إتاحة Ironwood عبر Google Cloud تعني أن العملاء الخارجيين يمكنهم الوصول إلى البنية التحتية ذاتها.
إعلان
رهان Anthropic بمليارات الدولارات على السيليكون المخصص
في 23 أكتوبر 2025، أعلنت Anthropic عن أكبر توسع في استخدامها لوحدات TPU حتى الآن: الوصول إلى ما يصل إلى مليون شريحة Ironwood عبر Google Cloud، مع أكثر من جيغاواط من سعة مراكز البيانات التي ستدخل الخدمة خلال 2026. تقديرات القطاع تضع قيمة الصفقة في عشرات المليارات من الدولارات، مع تخصيص نحو 35 مليار دولار عادةً للشرائح في بناء مركز بيانات بقدرة جيغاواط واحد.
بالنسبة لـ Anthropic، هذا استثمار في السعة والبنية المعمارية في آن واحد. تدرّب الشركة نماذج Claude وتشغّلها على وحدات TPU منذ تأسيسها، وتمتلك فرقها الهندسية خبرة عميقة في التحسين لسيليكون Google. لكن Anthropic لا تراهن حصرياً على مورّد واحد. تحتفظ الشركة باستراتيجية متعددة المنصات مقصودة، مستخدمة وحدات TPU من Google وشرائح Trainium من Amazon ووحدات GPU من NVIDIA بشكل متوازٍ. يحمي هذا النهج المتنوع من مخاطر سلسلة التوريد ويتيح لـ Anthropic مطابقة أحمال العمل مع الأجهزة الأكثر فعالية من حيث التكلفة.
يشير حجم الالتزام — ما يصل إلى مليون شريحة — إلى أن Anthropic تستعد لمستقبل ينمو فيه الطلب على الاستدلال لـ Claude بأوامر من المقادير. يتطلب تشغيل نماذج الاستدلال والأنظمة الوكيلة والتطبيقات متعددة الوسائط على نطاق عالمي بالضبط نوع الحوسبة الكثيفة والفعالة التي توفرها superpods Ironwood.
Google مقابل NVIDIA: التباين في القياس
على مستوى الشريحة الواحدة، يتقارب أداء Ironwood وB200 من NVIDIA — 4.6 بيتافلوبس مقابل 4.5 بيتافلوبس في أداء FP8. يظهر التباين عند التوسع. يربط نظام GB200 NVL72 من NVIDIA بين 72 وحدة GPU في نطاق NVLink واحد، ليقدم نحو 0.72 إكسافلوبس من حسابات FP8. يربط superpod Ironwood من Google بين 128 ضعفاً من الشرائح، محققاً 42.5 إكسافلوبس في نظام منطقي واحد.
هذا الفارق مهم لأكبر النماذج المتقدمة. عندما يتطلب نموذج ما آلاف الشرائح لتمريرة استدلال واحدة، تصبح الشبكة التي تربط تلك الشرائح بنفس أهمية الشرائح ذاتها. شبكة ICI من Google، المصمّمة داخلياً والمُحسّنة بشكل وثيق مع سيليكون TPU، تتجنب عقوبات زمن الاستجابة متعددة القفزات التي تظهر عند توسيع مجموعات GPU إلى ما يتجاوز نطاق NVLink واحد.
ومع ذلك، تحتفظ NVIDIA بمزايا حاسمة في اتساع النظام البيئي ونضج البرمجيات (CUDA) وتوفر الأجهزة من أطراف ثالثة. Ironwood متاح حصرياً عبر Google Cloud — لا يمكن شراء هذه الشرائح. بالنسبة للمؤسسات التي تحتاج بنية تحتية محلية للذكاء الاصطناعي أو قابلية نقل متعددة السحاب، تبقى NVIDIA الخيار الافتراضي. مسار TPU منطقي فقط لأحمال العمل التي يمكنها الالتزام بمنظومة Google.
ماذا يعني هذا للبنية التحتية للذكاء الاصطناعي
يُبلور إطلاق Ironwood والصفقة الضخمة مع Anthropic عدة اتجاهات ستحدد معالم البنية التحتية للذكاء الاصطناعي خلال بقية هذا العقد:
السيليكون المخصص لم يعد قطاعاً هامشياً. تستثمر Google وAmazon (Trainium/Inferentia) وMicrosoft (Maia 200) مليارات الدولارات في شرائح ذكاء اصطناعي خاصة بها. عصر NVIDIA كمورّد وحيد لحوسبة الذكاء الاصطناعي المتقدمة يقترب من نهايته — ليس لأن NVIDIA في تراجع، بل لأن الطلب كبير جداً بحيث ستتعايش بنيات سيليكون متعددة.
الاستدلال هو ساحة المعركة الجديدة. تدريب نموذج متقدم هو نفقة رأسمالية تُدفع مرة واحدة. خدمته لملايين المستخدمين تكلفة تشغيلية مستمرة يمكن أن تتجاوز ميزانيات التدريب في غضون أشهر. تصميم Ironwood الموجّه نحو الاستدلال يعكس اتجاه الاستثمارات.
الارتهان بمزودي الخدمات السحابية الكبرى هو الثمن. تقدم وحدات TPU المخصصة نسبة سعر-أداء متفوقة داخل Google Cloud، لكنها تخلق تبعية عميقة للمورّد. تتحوط Anthropic بالحفاظ على سعة موازية على AWS ومع NVIDIA. قد لا تملك المؤسسات الأصغر هذا الترف.
الأسئلة الشائعة
ما الذي يميز TPU Ironwood من Google عن الأجيال السابقة؟
Ironwood هو أول TPU من Google مصمّم صراحةً لعصر الاستدلال بدلاً من التدريب بشكل أساسي. تقدم كل شريحة 4,614 تيرافلوبس FP8 مع 192 جيجابايت من ذاكرة HBM3E — بزيادة 10 أضعاف في الأداء الأقصى مقارنة بـ TPU v5p. بنيتها ثنائية الرقائق وتحسّنها بمقدار ضعفين في الأداء لكل واط مقارنة بـ Trillium تجعلها مُحسّنة لمتطلبات زمن الاستجابة المنخفض والإنتاجية العالية لخدمة نماذج الذكاء الاصطناعي على نطاق واسع.
لماذا التزمت Anthropic بما يصل إلى مليون شريحة Ironwood؟
تدرّب Anthropic نماذج Claude وتشغّلها على بنية TPU من Google منذ تأسيسها، مما منح مهندسيها خبرة عميقة في التحسين. الصفقة، التي أُعلن عنها في أكتوبر 2025 وتُقدّر بعشرات المليارات من الدولارات مع أكثر من جيغاواط من سعة مراكز البيانات، تعكس توقع Anthropic بأن الطلب على الاستدلال لـ Claude سينمو بأوامر من المقادير مع انتشار نماذج الاستدلال وأنظمة الذكاء الاصطناعي الوكيل عالمياً.
كيف يقارن Ironwood بوحدات GPU Blackwell من NVIDIA لأحمال عمل الذكاء الاصطناعي؟
على مستوى الشريحة الواحدة، يتقارب أداء Ironwood (4.6 بيتافلوبس FP8) وB200 من NVIDIA (4.5 بيتافلوبس FP8). الفرق الجوهري في القياس: يربط superpod Ironwood بين 9,216 شريحة ليقدم 42.5 إكسافلوبس، بينما يربط GB200 NVL72 من NVIDIA بين 72 وحدة GPU لنحو 0.72 إكسافلوبس FP8. ومع ذلك، تحتفظ NVIDIA بمزايا في نضج منظومة CUDA البرمجية وتوفر الأجهزة خارج Google Cloud.
المصادر والقراءات الإضافية
- Ironwood: The First Google TPU for the Age of Inference — Google Blog
- Anthropic to Expand Use of Google Cloud TPUs and Services — Google Cloud Press Corner
- Google and Anthropic Confirm Massive 1GW+ Cloud Deal — Data Centre Dynamics
- Inside the Ironwood TPU Codesigned AI Stack — Google Cloud Blog
- Google and Anthropic Announce Cloud Deal Worth Tens of Billions — CNBC
- Expanding Our Use of Google Cloud TPUs and Services — Anthropic
- Google Deploys Axion CPUs and Seventh-Gen Ironwood TPU — Tom’s Hardware
- TPU7x (Ironwood) Documentation — Google Cloud






