في 24 مارس 2026، فعلت Arm Holdings شيئاً لم تفعله قط في 35 عاماً من وجودها: شحنت سيليكونها الإنتاجي الخاص. معالج AGI من Arm — معالج مركز بيانات بـ 136 نواة مبني على تقنية TSMC بدقة 3 نانومتر — يمثل تحول الشركة من مُرخِّص محض للملكية الفكرية إلى منافس مباشر في سوق رقائق الخوادم. مع Meta كشريك تطوير رئيسي وقائمة عملاء إطلاق تشمل OpenAI وCloudflare وCerebras، يُعد معالج AGI أكثر تحديات Arm جرأة حتى الآن ضد معمارية x86 التي هيمنت على مراكز البيانات لعقود.
لماذا بنت Arm رقاقتها الخاصة
أمضت Arm عقوداً في ترخيص تصاميم المعالجات لشركات أخرى — Qualcomm وApple وAmazon وNvidia — بينما بقيت بعيدة عن أعمال السيليكون. هذا النموذج وفّر عائدات ثابتة لكنه ترك مليارات من القيمة على الطاولة مع بناء مُقدمي الخدمات فائقي النطاق رقائقهم الخاصة القائمة على Arm لأحمال العمل السحابية. أثبت كل من AWS Graviton وGoogle Axion وMicrosoft Cobalt وNvidia Grace أن معماريات Arm يمكنها منافسة x86 في مراكز البيانات. لكن كل من هذه الرقائق صُممت من قبل العميل، وليس من قبل Arm.
يُغيّر معالج AGI هذه المعادلة. توقع الرئيس التنفيذي لـ Arm، Rene Haas، أن أعمال الرقائق وحدها يمكن أن تولّد 15 مليار دولار من الإيرادات السنوية بحلول 2031، مساهمة في هدف أوسع يبلغ 25 مليار دولار من إجمالي إيرادات الشركة. هذا رهان كبير: قفز سهم Arm بنسبة 16% عند الإعلان، مما يعكس ثقة المستثمرين في جدوى التحول من الترخيص إلى السيليكون.
التوقيت ليس صدفة. النمو المتفجر لأحمال عمل الذكاء الاصطناعي الوكيلي — أنظمة مستقلة تنسّق نماذج ذكاء اصطناعي متعددة وتدير استدعاءات الأدوات وتحافظ على ذاكرة مستمرة — يدفع الطلب على معالجات قادرة على التعامل مع طبقة التنسيق إلى جانب مسرّعات GPU. ترى Arm هذا الاختناق في جانب المعالج كنقطة دخولها.
ما يقدمه العتاد
بُني معالج AGI حول ما يصل إلى 136 نواة Neoverse V3 موزعة على شريحتين، تعمل بتردد يصل إلى 3.2 جيجاهرتز لجميع الأنوية و3.7 جيجاهرتز في وضع التعزيز، ضمن غلاف حراري يبلغ 300 واط. عرض النطاق الترددي للذاكرة كبير: 12 قناة DDR5 بسرعة تصل إلى 8800 ميغا نقل/ثانية تقدم أكثر من 800 جيجابايت/ثانية من الإنتاجية الإجمالية، أو حوالي 6 جيجابايت/ثانية لكل نواة، مع زمن استجابة مستهدف أقل من 100 نانوثانية.
الكثافة هي حيث تجذب الأرقام الانتباه. يحتوي الرف القياسي المبرد بالهواء بقدرة 36 كيلوواط على 30 شفرة 1U بمقبس واحد، بإجمالي 8,160 نواة لكل رف. انتقل إلى التبريد السائل ويتجاوز هذا الرقم 45,000 نواة لكل رف. تدّعي Arm أن هذا يترجم إلى أكثر من ضعف الأداء لكل رف مقارنة بمعالجات x86 الحالية، مما يمكّن من توفير يصل إلى 10 مليارات دولار في النفقات الرأسمالية لكل جيجاواط من سعة مركز بيانات الذكاء الاصطناعي.
هذه الادعاءات هي توقعات من المورد وستحتاج إلى تحقق مستقل بمجرد توفر معايير الطرف الثالث. لكن المعمارية مُحسّنة بوضوح لنمط حمل العمل المحدد للذكاء الاصطناعي الوكيلي: أعداد عالية من الخيوط، وعرض نطاق ذاكرة ضخم، وكفاءة طاقة — نفس نقاط القوة التي جعلت Arm مهيمنة في الأجهزة المحمولة ومنافسة بشكل متزايد في السحابة.
إعلان
Meta كشريك رئيسي
ليست Meta مجرد عميل إطلاق — بل شاركت في تطوير معالج AGI مع Arm. صُممت الرقاقة للعمل جنباً إلى جنب مع سيليكون MTIA (مسرّع التدريب والاستدلال من Meta) المخصص، حيث تتولى التنسيق من جانب المعالج الذي ينسّق مجموعات المسرّعات عبر بنية Meta التحتية بحجم الجيجاواط.
بالنسبة لـ Meta، الدافع هو التحكم في مجموعتها التقنية للذكاء الاصطناعي من السيليكون إلى البرمجيات. بنت الشركة رقائق مخصصة منذ 2023 وترى معالج AGI كالقطعة المفقودة: معالج مضيف مخصص يُلغي عبء معالجات x86 ذات الأغراض العامة في أحمال العمل الثقيلة بالذكاء الاصطناعي. التزمت Meta وArm بالتطوير المشترك لعدة أجيال مستقبلية من المعالجات المحسّنة للذكاء الاصطناعي، مما يشير إلى أن هذا رهان معماري طويل الأمد وليس قرار شراء لمرة واحدة.
يمتد شركاء الإطلاق الآخرون عبر منظومة الذكاء الاصطناعي. تجلب OpenAI وCerebras أحمال عمل الاستدلال والتدريب. تمثل Cloudflare وF5 البنية التحتية للطرف والشبكات. يشير SAP وSK Telecom إلى التبني المؤسسي والاتصالات. بدأ مصنعو الخوادم ASRock Rack وLenovo وSupermicro بالفعل بعرض أنظمة تجارية متاحة للطلب، مع توقع توفر أوسع في النصف الثاني من 2026.
رد x86 جارٍ بالفعل
لا يقف Intel وAMD مكتوفي الأيدي. يجلب EPYC Venice من AMD، الذي يُشحن في النصف الثاني من 2026، ما يصل إلى 256 نواة Zen 6 على تقنية TSMC بدقة 2nm مع تحسين مُعلن بنسبة 70% في الأداء والكفاءة بين الأجيال. يحزم Clearwater Forest من Intel 288 نواة E-core على عقدة العملية 18A، مستهدفاً أحمال العمل المُحسّنة للكثافة. معالج Vera من Nvidia — بـ 88 نواة Olympus مخصصة — يستهدف نفس حالة استخدام التنسيق الوكيلي التي تسعى إليها Arm.
تُظهر أرقام حصة السوق أن x86 لا يزال مهيمناً لكن الاتجاه يفضل المنافسين. بحلول أوائل 2025، مثّلت المعالجات القائمة على Arm حوالي 15-20% من شحنات معالجات الخوادم، ارتفاعاً من حصة ضئيلة قبل خمس سنوات. احتفظ AMD بحوالي 27% من سوق خوادم x86 في الربع الأول من 2025، تاركاً لـ Intel الباقي — لا يزال الأغلبية، لكنها تتراجع باطراد. يتوقع المحللون أن تصل Arm إلى 20-23% من سوق معالجات مراكز البيانات بنهاية 2026، رغم أن التبني الفعلي تأخر عن بعض التوقعات السابقة — لا سيما هدف Arm الطموح بنسبة 50% بحلول 2025.
لزيادة التعقيد، أكبر حاملي تراخيص Arm — Nvidia وAmazon وGoogle وMicrosoft — هم في الوقت نفسه عملاء ومنافسون محتملون. يقدم AWS Graviton وGoogle Axion بالفعل نسخاً قائمة على Arm تستهدف نفس أحمال العمل. قد يكون السوق الرئيسي لمعالج AGI هو المستوى الأدنى من مُقدمي الخدمات فائقي النطاق: المؤسسات ومزودو السحابة متوسطو الحجم والشركات الناشئة في الذكاء الاصطناعي التي تفتقر إلى الموارد لتصميم سيليكون مخصص.
ماذا يعني هذا لسوق مراكز البيانات
تتجاوز أهمية معالج AGI رقاقة واحدة. يمثل تحولاً هيكلياً في كيفية تعامل صناعة أشباه الموصلات مع البنية التحتية للذكاء الاصطناعي. تتلاقى ثلاثة اتجاهات:
نهضة المعالج. مع تزايد تعقيد أنظمة الذكاء الاصطناعي الوكيلي، أصبحت طبقة تنسيق المعالج عنق زجاجة حقيقي. كل رمز يُولّد، وكل استدعاء أداة يُرسل، وكل استرجاع ذاكرة يمر عبر المعالج المضيف. تراهن Arm على أن المعالجات المخصصة لهذا الحمل تمثل فرصة بقيمة 15 مليار دولار.
حدود نموذج الترخيص. يستحوذ نموذج الملكية التقليدي لـ Arm على حوالي 1-3 دولارات لكل رقاقة في رسوم الترخيص. بيع سيليكون كامل يستحوذ على هامش الرقاقة الكامل. إذا نجح معالج AGI، فقد يُغيّر جذرياً ملف إيرادات Arm من أعمال ملكية فكرية منخفضة الهامش إلى شركة منتجات عالية الهامش.
كفاءة الطاقة كسلاح تنافسي. مع تحوّل استهلاك طاقة مراكز بيانات الذكاء الاصطناعي إلى قضية سياسية وبيئية عالمياً، يمنح ميزة Arm في الطاقة لكل نواة — الموروثة من جيناتها في الأجهزة المحمولة — تفوقاً هيكلياً. يُقارن TDP البالغ 300 واط لـ 136 نواة بشكل إيجابي مع قطع x86 التي تستهلك غالباً 350-400 واط لعدد أقل من الأنوية.
السيليكون الإنتاجي متاح للطلب الآن، مع تصاعد الشحنات بالجملة خلال النصف الثاني من 2026 وتأثير مادي على الإيرادات متوقع من 2028 فصاعداً. سيعتمد نجاح رهان Arm على التحقق من الأداء في الواقع، وسرعة تبني المنظومة البرمجية، وقدرة الشركة على التعامل مع الديناميكيات المعقدة للتنافس مع حاملي تراخيصها.
شيء واحد واضح: انتهى احتكار x86 في مراكز بيانات الذكاء الاصطناعي. السؤال لم يعد ما إذا كان لـ Arm مكان في غرفة الخوادم — بل ما حجم الحصة التي ستطالب بها.
الأسئلة الشائعة
كيف يُقارن معالج AGI من Arm بمعالجات Kunpeng من Huawei المنتشرة بالفعل في الجزائر؟
كلاهما معماريات قائمة على Arm، لكنهما يستهدفان مواقع سوقية مختلفة. تستخدم معالجات Kunpeng من Huawei تصاميم أنوية Arm أقدم محسّنة للحوسبة المؤسسية العامة وتأتي مع منظومة Huawei البرمجية. يستخدم معالج AGI من Arm أحدث أنوية Neoverse V3 بدقة 3nm، مستهدفاً أحمال عمل مراكز بيانات الذكاء الاصطناعي بـ 136 نواة وأكثر من 800 جيجابايت/ثانية من عرض النطاق الترددي للذاكرة. بالنسبة للجزائر، الفرق العملي هو أن Kunpeng متاح الآن عبر شراكات Huawei القائمة، بينما معالج AGI يمثل خياراً مستقبلياً بأداء أعلى لكن بدون سلسلة إمداد محلية راسخة.
هل سيعمل معالج AGI من Arm مع وحدات GPU من NVIDIA؟
نعم. صُمم معالج AGI صراحة ليكون المعالج المضيف إلى جانب مسرّعات GPU في أحمال عمل الذكاء الاصطناعي. NVIDIA مُدرجة كشريك في منظومة الإطلاق، والرقاقة تستهدف طبقة تنسيق المعالج التي تنسّق مجموعات GPU في أنظمة الذكاء الاصطناعي الوكيلي. مزيج معالجات Arm مع وحدات GPU من NVIDIA شائع بالفعل في عمليات نشر مُقدمي الخدمات فائقي النطاق (NVIDIA Grace + Hopper)، ومعالج AGI يوسع هذا النمط إلى سوق أوسع.
ماذا تعني نهاية احتكار x86 لتوافق برمجيات الخوادم؟
معظم برمجيات الخوادم الحديثة — توزيعات Linux وبيئات تشغيل الحاويات وقواعد البيانات وأطر عمل الذكاء الاصطناعي — تدعم بالفعل معمارية Arm بفضل سنوات من العمل المدفوع بتبني AWS Graviton وApple Silicon. مع ذلك، قد تحتاج بعض البرمجيات المؤسسية والتطبيقات القديمة وسلاسل الأدوات المتخصصة إلى x86. التأثير العملي هو أن المؤسسات يجب أن تتحقق من توافق مجموعتها البرمجية مع Arm قبل الالتزام ببنية تحتية قائمة على Arm. بالنسبة للنشر الجديد مثل مراكز بيانات الجزائر القادمة، يجب أن يكون هذا التحقق جزءاً من عملية الشراء.
المصادر والقراءات الإضافية
- Announcing Arm AGI CPU: The Silicon Foundation for the Agentic AI Cloud Era — Arm Newsroom
- Arm Moves Beyond IP with AGI CPU Silicon — Tom’s Hardware
- Arm Flexes with New Data Center CPU for AI Inference — HPCwire
- Arm’s $15 Billion CPU Opportunity Hinges on Agentic Data Center Design — Futurum Group
- Arm Jumps 16% as Company Expects Revenue Windfall from New Chip — CNBC
- Arm Launches AGI CPU for Agentic AI Workloads — EE Times
















