⚡ أبرز النقاط

يقدم TPU Ironwood من الجيل السابع من Google أداء 4,614 تيرافلوبس FP8 لكل شريحة مع 192 جيجابايت من HBM3E، ويصل إلى 42.5 إكسافلوبس عبر superpod مؤلف من 9,216 شريحة. التزمت Anthropic بما يصل إلى مليون شريحة Ironwood في صفقة بعشرات المليارات، مما يؤكد أن السيليكون المخصص المُحسّن للاستدلال يحل محل وحدات GPU كمعيار لنشر الذكاء الاصطناعي على نطاق واسع. تقدّر SemiAnalysis أن التكلفة الإجمالية لملكية Ironwood أقل بنسبة 44% من GB200 من NVIDIA.

خلاصة: ينبغي للمؤسسات التي تخطط لبنيتها التحتية للذكاء الاصطناعي تقييم تسعير TPU من Google Cloud إلى جانب خيارات GPU، إذ إن حرب أسعار السيليكون المخصص بين Google وAmazon وMicrosoft تخفض تكاليف الاستدلال بنسبة 30-40% مقارنة بالنشر الحصري على NVIDIA.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار (المنظور الجزائري)

الأهمية بالنسبة للجزائر
متوسط

يتنامى اعتماد الحوسبة السحابية في الجزائر لكنه لا يزال يعتمد بشكل أساسي على مثيلات GPU العامة عبر مزودين دوليين. أحمال العمل الخاصة بـ TPU ليست شائعة محلياً بعد، رغم أن اتجاه خفض التكاليف يفيد جميع مستهلكي الذكاء الاصطناعي.
البنية التحتية جاهزة؟
لا

Ironwood متاح حصرياً في مناطق Google Cloud. لا يوجد مركز بيانات GCP في شمال أفريقيا، مما يعني أن المستخدمين الجزائريين يواجهون زمن استجابة يتراوح بين 30 و60 مللي ثانية من مناطق Europe-West. الوصول المباشر لوحدات TPU يتطلب التزاماً مع Google Cloud.
المهارات متوفرة؟
جزئي

يعمل مهندسو التعلم الآلي الجزائريون بشكل متزايد مع TensorFlow وJAX، وهما إطارا عمل أصليان لـ TPU. لكن الخبرة في إدارة TPU على مستوى الإنتاج والنشر على نطاق superpod تبقى نادرة في مجموعة المواهب المحلية.
الجدول الزمني للعمل
12-24 شهراً

ذو صلة عندما تبدأ المؤسسات الجزائرية بنشر نماذج اللغة الكبيرة على نطاق الإنتاج. التأثير الأوسع لخفض تكاليف الاستدلال سيصل إلى الجزائر عبر خدمات الذكاء الاصطناعي من أطراف ثالثة خلال 12 شهراً.
أصحاب المصلحة الرئيسيون
مهندسو السحابة، فرق منصات التعلم الآلي، المدراء التقنيون في شركات التكنولوجيا الجزائرية، باحثو الذكاء الاصطناعي في الجامعات

Assessment: مهندسو السحابة، فرق منصات التعلم الآلي، المدراء التقنيون في شركات التكنولوجيا الجزائرية، باحثو الذكاء الاصطناعي في الجامعات.
نوع القرار
تعليمي

يقدم هذا المقال معرفة أساسية حول المشهد المتغير لشرائح الذكاء الاصطناعي، مما يساعد القادة التقنيين على اتخاذ قرارات مستنيرة بشأن استراتيجية السحاب المتعدد واختيار المورّد.

خلاصة سريعة: ينبغي للفرق الجزائرية التي تبني منتجات مدعومة بالذكاء الاصطناعي مراقبة اتجاهات تكاليف الاستدلال لدى جميع مزودي الخدمات السحابية، وليس Google فحسب. رغم أن الوصول المباشر إلى Ironwood يتطلب التزاماً مع Google Cloud، فإن الضغط التنافسي من السيليكون المخصص يدفع بالفعل أسعار GPU للانخفاض لدى AWS وAzure وGCP — مما يفيد الشركات الناشئة الجزائرية بغض النظر عن مزود السحابة الذي تستخدمه.

الشريحة التي تتجاوز حاجز 4,600 تيرافلوبس

دخل سباق البنية التحتية للذكاء الاصطناعي مرحلة جديدة. تمثل وحدة معالجة Tensor من الجيل السابع من Google، التي تحمل الاسم الرمزي Ironwood، أكثر خطوات الشركة جرأة في مجال السيليكون المخصص للذكاء الاصطناعي — شريحة صُمّمت من الأساس لعصر الاستدلال. عندما أعلنت Anthropic في الوقت ذاته عن نشر ما يصل إلى مليون من هذه الشرائح لنماذج Claude الخاصة بها، كانت تلك إشارة إلى أن ميزان القوى في حوسبة الذكاء الاصطناعي يبتعد عن عالم يهيمن عليه مورّد واحد لوحدات GPU.

تقدم كل شريحة Ironwood أداءً بقدرة 4,614 تيرافلوبس FP8 — بزيادة 10 أضعاف في الأداء الأقصى مقارنة بـ TPU v5p وأكثر من 4 أضعاف كفاءة سلفها المباشر TPU v6e (Trillium). قصة الذاكرة لا تقل أهمية: 192 جيجابايت من HBM3E لكل شريحة مع عرض نطاق ترددي يبلغ 7.37 تيرابايت/ثانية، أي زيادة بمقدار 6 أضعاف في السعة مقارنة بـ Trillium. بالنسبة للنماذج التي يتزايد حجمها مع كل جيل، فإن هذا الهامش في الذاكرة يزيل الاختناقات التي كانت تجبر المهندسين سابقاً على تجزئة النماذج عبر عدد أكبر بكثير من الشرائح.

تستخدم كل شريحة Ironwood بنية ثنائية الرقائق (dual-chiplet)، حيث تحتوي كل رقاقة على TensorCore واحد وSparseCore اثنين و96 جيجابايت من HBM — مرتبطة بواجهة die-to-die أسرع بست مرات من رابط ICI واحد. تدّعي Google تحسناً بمقدار ضعفين في الأداء لكل واط مقارنة بـ Trillium، وكفاءة طاقة أفضل بنحو 30 ضعفاً مقارنة بأول Cloud TPU لها. في عالم أصبح فيه استهلاك الطاقة في مراكز البيانات قيداً صارماً، فإن مقياس الكفاءة هذا لا يقل أهمية عن الأداء الخام.

الـ Superpod: 9,216 شريحة، 42.5 إكسافلوبس

يتميز Ironwood حقاً عند العمل على نطاق واسع. يربط superpod واحد من Ironwood بين 9,216 شريحة عبر شبكة ربط بين الشرائح (ICI) بسرعة 9.6 تيرابت/ثانية، ليقدم قدرة حوسبة إجمالية تبلغ 42.5 إكسافلوبس من حسابات FP8. لوضع ذلك في سياقه، تجمع قائمة TOP500 لأقوى الحواسيب الفائقة في العالم نحو 15 إكسافلوبس من أداء LINPACK (بدقة FP64) — أي أن superpod واحداً من Ironwood يتجاوز ذلك في أحمال العمل ذات الدقة المنخفضة للذكاء الاصطناعي. كما يجمع الـ superpod نحو 1.77 بيتابايت من ذاكرة HBM3E — وهو ما يكفي لاستيعاب أكبر النماذج المتقدمة بالكامل في ذاكرة عالية النطاق الترددي.

يستهلك الـ superpod بتكوينه الكامل نحو 10 ميغاواط تحت الحمل الكامل. يبدو ذلك هائلاً بالقيمة المطلقة، لكن نسبة الأداء إلى الواط عند 42.5 إكسافلوبس تجعله فعالاً بشكل ملحوظ مقارنة بتجميع قدرة حوسبة مكافئة من وحدات GPU العامة. وفقاً لتحليل SemiAnalysis، فإن التكلفة الإجمالية للملكية (TCO) لكل شريحة Ironwood أقل بنحو 44% من تكلفة ملكية خادم NVIDIA GB200 في تكوينات مماثلة. بالنسبة لعملاء Google Cloud الخارجيين، تكون التكاليف بالساعة أقل بنحو 30% من تسعير GB200.

مصمّم لعصر الاستدلال المتقدم

كانت الأجيال السابقة من TPU تُسوَّق بشكل أساسي كمسرّعات للتدريب. يمثل Ironwood تحولاً مقصوداً. تصفه Google بأنه « أول TPU لعصر الاستدلال »، مصمّم خصيصاً لمتطلبات زمن الاستجابة المنخفض والإنتاجية العالية لخدمة نماذج الذكاء الاصطناعي على نطاق واسع.

تعكس فلسفة التصميم هذه تحولاً جوهرياً في صناعة الذكاء الاصطناعي. مع نضج النماذج المتقدمة، ينتقل عنق الزجاجة الحوسبي من التدريب (يُنفَّذ مرة واحدة) إلى الاستدلال (يُنفَّذ مليارات المرات). تتطلب نماذج الاستدلال المتقدم مثل أنظمة chain-of-thought وبنيات mixture-of-experts وأطر عمل الذكاء الاصطناعي الوكيل (agentic AI) قدرة استدلال مستمرة تفوق بكثير ميزانيات تدريبها. تُحسّن بنية Ironwood التبديل السريع للسياق والتنفيذ بزمن استجابة منخفض وأنماط الاتصال المتقطعة المميزة لخدمة النماذج في الوقت الفعلي.

تستخدم Google هذه الشرائح داخلياً عبر Search وYouTube وGmail وGemini — وهي خدمات تعالج مجتمعة مليارات استعلامات الاستدلال يومياً. إتاحة Ironwood عبر Google Cloud تعني أن العملاء الخارجيين يمكنهم الوصول إلى البنية التحتية ذاتها.

إعلان

رهان Anthropic بمليارات الدولارات على السيليكون المخصص

في 23 أكتوبر 2025، أعلنت Anthropic عن أكبر توسع في استخدامها لوحدات TPU حتى الآن: الوصول إلى ما يصل إلى مليون شريحة Ironwood عبر Google Cloud، مع أكثر من جيغاواط من سعة مراكز البيانات التي ستدخل الخدمة خلال 2026. تقديرات القطاع تضع قيمة الصفقة في عشرات المليارات من الدولارات، مع تخصيص نحو 35 مليار دولار عادةً للشرائح في بناء مركز بيانات بقدرة جيغاواط واحد.

بالنسبة لـ Anthropic، هذا استثمار في السعة والبنية المعمارية في آن واحد. تدرّب الشركة نماذج Claude وتشغّلها على وحدات TPU منذ تأسيسها، وتمتلك فرقها الهندسية خبرة عميقة في التحسين لسيليكون Google. لكن Anthropic لا تراهن حصرياً على مورّد واحد. تحتفظ الشركة باستراتيجية متعددة المنصات مقصودة، مستخدمة وحدات TPU من Google وشرائح Trainium من Amazon ووحدات GPU من NVIDIA بشكل متوازٍ. يحمي هذا النهج المتنوع من مخاطر سلسلة التوريد ويتيح لـ Anthropic مطابقة أحمال العمل مع الأجهزة الأكثر فعالية من حيث التكلفة.

يشير حجم الالتزام — ما يصل إلى مليون شريحة — إلى أن Anthropic تستعد لمستقبل ينمو فيه الطلب على الاستدلال لـ Claude بأوامر من المقادير. يتطلب تشغيل نماذج الاستدلال والأنظمة الوكيلة والتطبيقات متعددة الوسائط على نطاق عالمي بالضبط نوع الحوسبة الكثيفة والفعالة التي توفرها superpods Ironwood.

Google مقابل NVIDIA: التباين في القياس

على مستوى الشريحة الواحدة، يتقارب أداء Ironwood وB200 من NVIDIA — 4.6 بيتافلوبس مقابل 4.5 بيتافلوبس في أداء FP8. يظهر التباين عند التوسع. يربط نظام GB200 NVL72 من NVIDIA بين 72 وحدة GPU في نطاق NVLink واحد، ليقدم نحو 0.72 إكسافلوبس من حسابات FP8. يربط superpod Ironwood من Google بين 128 ضعفاً من الشرائح، محققاً 42.5 إكسافلوبس في نظام منطقي واحد.

هذا الفارق مهم لأكبر النماذج المتقدمة. عندما يتطلب نموذج ما آلاف الشرائح لتمريرة استدلال واحدة، تصبح الشبكة التي تربط تلك الشرائح بنفس أهمية الشرائح ذاتها. شبكة ICI من Google، المصمّمة داخلياً والمُحسّنة بشكل وثيق مع سيليكون TPU، تتجنب عقوبات زمن الاستجابة متعددة القفزات التي تظهر عند توسيع مجموعات GPU إلى ما يتجاوز نطاق NVLink واحد.

ومع ذلك، تحتفظ NVIDIA بمزايا حاسمة في اتساع النظام البيئي ونضج البرمجيات (CUDA) وتوفر الأجهزة من أطراف ثالثة. Ironwood متاح حصرياً عبر Google Cloud — لا يمكن شراء هذه الشرائح. بالنسبة للمؤسسات التي تحتاج بنية تحتية محلية للذكاء الاصطناعي أو قابلية نقل متعددة السحاب، تبقى NVIDIA الخيار الافتراضي. مسار TPU منطقي فقط لأحمال العمل التي يمكنها الالتزام بمنظومة Google.

ماذا يعني هذا للبنية التحتية للذكاء الاصطناعي

يُبلور إطلاق Ironwood والصفقة الضخمة مع Anthropic عدة اتجاهات ستحدد معالم البنية التحتية للذكاء الاصطناعي خلال بقية هذا العقد:

السيليكون المخصص لم يعد قطاعاً هامشياً. تستثمر Google وAmazon (Trainium/Inferentia) وMicrosoft (Maia 200) مليارات الدولارات في شرائح ذكاء اصطناعي خاصة بها. عصر NVIDIA كمورّد وحيد لحوسبة الذكاء الاصطناعي المتقدمة يقترب من نهايته — ليس لأن NVIDIA في تراجع، بل لأن الطلب كبير جداً بحيث ستتعايش بنيات سيليكون متعددة.

الاستدلال هو ساحة المعركة الجديدة. تدريب نموذج متقدم هو نفقة رأسمالية تُدفع مرة واحدة. خدمته لملايين المستخدمين تكلفة تشغيلية مستمرة يمكن أن تتجاوز ميزانيات التدريب في غضون أشهر. تصميم Ironwood الموجّه نحو الاستدلال يعكس اتجاه الاستثمارات.

الارتهان بمزودي الخدمات السحابية الكبرى هو الثمن. تقدم وحدات TPU المخصصة نسبة سعر-أداء متفوقة داخل Google Cloud، لكنها تخلق تبعية عميقة للمورّد. تتحوط Anthropic بالحفاظ على سعة موازية على AWS ومع NVIDIA. قد لا تملك المؤسسات الأصغر هذا الترف.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما الذي يميز TPU Ironwood من Google عن الأجيال السابقة؟

Ironwood هو أول TPU من Google مصمّم صراحةً لعصر الاستدلال بدلاً من التدريب بشكل أساسي. تقدم كل شريحة 4,614 تيرافلوبس FP8 مع 192 جيجابايت من ذاكرة HBM3E — بزيادة 10 أضعاف في الأداء الأقصى مقارنة بـ TPU v5p. بنيتها ثنائية الرقائق وتحسّنها بمقدار ضعفين في الأداء لكل واط مقارنة بـ Trillium تجعلها مُحسّنة لمتطلبات زمن الاستجابة المنخفض والإنتاجية العالية لخدمة نماذج الذكاء الاصطناعي على نطاق واسع.

لماذا التزمت Anthropic بما يصل إلى مليون شريحة Ironwood؟

تدرّب Anthropic نماذج Claude وتشغّلها على بنية TPU من Google منذ تأسيسها، مما منح مهندسيها خبرة عميقة في التحسين. الصفقة، التي أُعلن عنها في أكتوبر 2025 وتُقدّر بعشرات المليارات من الدولارات مع أكثر من جيغاواط من سعة مراكز البيانات، تعكس توقع Anthropic بأن الطلب على الاستدلال لـ Claude سينمو بأوامر من المقادير مع انتشار نماذج الاستدلال وأنظمة الذكاء الاصطناعي الوكيل عالمياً.

كيف يقارن Ironwood بوحدات GPU Blackwell من NVIDIA لأحمال عمل الذكاء الاصطناعي؟

على مستوى الشريحة الواحدة، يتقارب أداء Ironwood (4.6 بيتافلوبس FP8) وB200 من NVIDIA (4.5 بيتافلوبس FP8). الفرق الجوهري في القياس: يربط superpod Ironwood بين 9,216 شريحة ليقدم 42.5 إكسافلوبس، بينما يربط GB200 NVL72 من NVIDIA بين 72 وحدة GPU لنحو 0.72 إكسافلوبس FP8. ومع ذلك، تحتفظ NVIDIA بمزايا في نضج منظومة CUDA البرمجية وتوفر الأجهزة خارج Google Cloud.

المصادر والقراءات الإضافية