الذكاء الاصطناعيالأمن السيبرانيالبنية التحتيةالمهاراتالسياسةالشركات الناشئةالاقتصاد الرقمي

حرب رقائق الذكاء الاصطناعي: هيمنة Nvidia، تحدي AMD، وصعود السيليكون المخصص

فبراير 24, 2026

AI processor chip on white marble surface with gold pins

خندق Nvidia بقيمة 115 مليار دولار

تُعد هيمنة Nvidia على سوق رقائق الذكاء الاصطناعي واحدة من أبرز مواقع الاحتكار في تاريخ التكنولوجيا. فقد بلغت إيرادات قسم مراكز البيانات في الشركة — المدفوعة بالكامل تقريباً بمبيعات وحدات معالجة الرسومات (GPU) لتدريب واستدلال الذكاء الاصطناعي — 115.2 مليار دولار في السنة المالية 2025، ما يمثل 88% من إجمالي إيرادات الشركة البالغة 130.5 مليار دولار. ارتفع هذا الرقم من نحو 47.5 مليار دولار في السنة المالية السابقة و15 مليار دولار فقط قبل عامين. تجاوزت القيمة السوقية لـ Nvidia لفترة وجيزة 5 تريليونات دولار في أكتوبر 2025، وفي مطلع 2026 استقرت عند نحو 4.6 تريليون دولار، مما يجعلها الشركة الأكثر قيمة في العالم — متقدمة على Apple وAlphabet وMicrosoft. أصبحت وحدة H100 العتاد الحاسم في عصر الذكاء الاصطناعي، حيث يُباع الرقاقة الواحدة بسعر يتراوح بين 25,000 و40,000 دولار حسب التكوين، رغم أن أسعار التأجير السحابي انخفضت منذ ذلك الحين من 8 دولارات/الساعة في 2024 إلى أقل من 3 دولارات/الساعة مع توسع العرض.

لا تكمن ميزة Nvidia في العتاد فحسب، بل في البرمجيات أيضاً. أصبحت CUDA، منصة الحوسبة المتوازية المملوكة لـ Nvidia والتي أُطلقت عام 2006، المعيار الفعلي لأعباء عمل الذكاء الاصطناعي. جميع أُطر الذكاء الاصطناعي الرئيسية — PyTorch وTensorFlow وJAX — مُحسّنة لـ CUDA. كل خط أنابيب تدريب لباحثي الذكاء الاصطناعي يفترض وجود CUDA. يخلق هذا النظام البرمجي تكاليف تحويل يُمكن القول إنها أكثر ديمومة من أي تفوق في العتاد: حتى لو أنتج منافس رقاقة بمواصفات متفوقة، فإن تكلفة إعادة كتابة والتحقق من صحة كود تدريب الذكاء الاصطناعي ستحول دون الانتقال. تمتلك Nvidia حصة تُقدّر بنحو 86 إلى 90% من سوق مسرّعات الذكاء الاصطناعي في أواخر 2025.

دفعت معمارية Blackwell من Nvidia، المتجسدة في رقائق B200 وGB200 التي أُطلقت في 2024-2025، الأداء إلى مستويات أعلى. يقدم GB200 NVL72، وهو رف خوادم مبرد بالسوائل يحتوي على 72 وحدة GPU من Blackwell متصلة عبر NVLink، أداء استدلال أعلى 30 مرة وأداء تدريب أعلى 4 مرات مقارنة بنظام H100 السابق لنماذج اللغة الكبيرة، مع توفير أداء أعلى 25 مرة عند نفس استهلاك الطاقة مقارنة بالبنية التحتية المبردة بالهواء لـ H100. تحافظ خارطة طريق Nvidia على تحديثات معمارية سنوية: شُحن Blackwell Ultra (B300) في الربع الرابع من 2025 مع 288 غيغابايت من HBM3e لكل وحدة GPU، ومن المقرر إطلاق Vera Rubin في النصف الثاني من 2026 مع ذاكرة HBM4 وتحسين في الحوسبة بمقدار 3.3 مرة مقارنة بـ Blackwell Ultra، يليه Rubin Ultra في النصف الثاني من 2027، ومعمارية أخرى بالاسم الرمزي Feynman مدرجة في الخارطة بعد ذلك. يظل هذا الإيقاع في التحسين صعب المجاراة بالنسبة للمنافسين.


AMD وIntel واستراتيجية وحدات GPU المنافسة

وضعت AMD نفسها كبديل رئيسي لـ Nvidia في تدريب واستدلال الذكاء الاصطناعي. قدمت وحدة MI300X التي أُطلقت أواخر 2023 مواصفات تنافسية: 192 غيغابايت من ذاكرة HBM3 (مقابل 80 غيغابايت في H100)، وعرض نطاق ذاكرة 5.3 تيرابايت/ثانية (مقابل ~3.35 تيرابايت/ثانية)، وأداء استدلال قوي — أظهرت المعايير المستقلة ميزة في زمن الاستجابة بنسبة 40% مقارنة بـ H100 على أعباء عمل مثل LLaMA2-70B. اعتمد كبار مزودي السحابة — Microsoft Azure وOracle Cloud وغيرهم — وحدة MI300X، مما منح AMD عملاء موثوقين من الحجم الكبير.

تقدمت AMD بسرعة عبر أجيال متتالية. زاد MI325X (الربع الرابع 2024) الذاكرة إلى 256 غيغابايت من HBM3e. تمثل سلسلة MI350، التي أُطلقت منتصف 2025 على معمارية CDNA من الجيل الرابع، قفزة كبيرة: يقدم MI355X ذاكرة 288 غيغابايت من HBM3e بعرض نطاق 8 تيرابايت/ثانية ويدّعي إنتاجية استدلال أسرع حتى 35 مرة مقارنة بـ MI300X. استعرضت AMD سلسلة MI400 لعام 2026، المبنية على معمارية CDNA “Next”، إلى جانب تصميم “Helios” على مستوى الرف الذي يوحّد معالجات AMD EPYC ووحدات GPU MI400 وبطاقات شبكة Pensando AI في أنظمة متكاملة تدعم حتى 72 وحدة GPU — رد مباشر على نهج رف NVL72 من Nvidia.

يبقى التحدي المستمر لـ AMD هو نضج البرمجيات. منصتها ROCm (Radeon Open Compute) هي المنافس لـ CUDA، لكنها تأخرت تاريخياً من حيث الاستقرار ودعم المكتبات وتوثيق المطورين. يُفيد ممارسو الذكاء الاصطناعي بأن الانتقال من CUDA إلى ROCm يتطلب تعديلات غير بسيطة على الكود وتصحيح أخطاء، وأن ليس كل العمليات محسّنة بالتساوي. استثمرت AMD بكثافة لسد هذه الفجوة، من خلال توظيف مهندسين رئيسيين والمساهمة في أُطر العمل مفتوحة المصدر، لكن ميزة نظام المطورين تظل الخندق الأقوى لـ Nvidia.

عانت Intel، التي كانت الشركة المهيمنة في صناعة الرقائق، مع مسرّعات الذكاء الاصطناعي. قدم Gaudi 3 الخاص بها، الذي أُطلق عام 2024 عبر استحواذها على Habana Labs، نسبة أداء/سعر تنافسية — ادعت Intel تحسناً بنسبة 70% في إنتاجية الاستدلال لكل دولار مقارنة بـ H100 على نماذج معينة — لكنه استحوذ على أقل من 1% من سوق مسرّعات الذكاء الاصطناعي المنفصلة. في يناير 2025، ألغت Intel مشروع Falcon Shores، الجيل التالي المخطط لخليفة Gaudi، واختارت استخدامه كرقاقة اختبار داخلية. تم سحب خط منتجات Gaudi رسمياً. تتحول Intel الآن نحو Jaguar Shores، نظام ذكاء اصطناعي على مستوى الرف يدمج الحوسبة والشبكات والذاكرة، ومن المتوقع إطلاقه في 2026. قد تثبت استراتيجية المسبك لدى Intel — حيث بدأت Fab 52 في أريزونا التصنيع بكميات كبيرة على تقنية Intel 18A (1.8 نانومتر) في 2025 — أنها أكثر أهمية استراتيجياً من تصاميم رقائق الذكاء الاصطناعي الخاصة بها.


إعلان

ثورة السيليكون المخصص

قد لا يأتي التهديد الأكبر على المدى الطويل لـ Nvidia من شركة GPU أخرى، بل من اتجاه رقائق الذكاء الاصطناعي المخصصة التي يصممها مشغلو السحابة الفائقة أنفسهم. تقدمت وحدات معالجة Tensor (TPU) من Google بسرعة، وتغطي الآن سبعة أجيال. قدم الجيل السادس Trillium (TPU v6e)، المتاح في 2025، تحسناً في ذروة الحوسبة بمقدار 4.7 مرة مقارنة بـ TPU v5e. لكن نقطة التحول الحقيقية جاءت مع Ironwood (TPU v7)، الذي أُعلن عنه في أبريل 2025 — أول TPU من Google مصمم صراحة للاستدلال على نطاق واسع. تقدم كل رقاقة Ironwood أداءً بقوة 4,614 TFLOPS FP8 مع 192 غيغابايت من ذاكرة HBM3e وعرض نطاق 7.4 تيرابايت/ثانية، وتتوسع المجموعات إلى 9,216 رقاقة تقدم 42.5 ExaFLOPS. تدّعي Google أن Ironwood يتفوق على GB300 من Nvidia في معايير التدريب والاستدلال الرئيسية. وفي إشارة إلى الجاذبية المتزايدة لنظام TPU، وقّعت Anthropic أكبر صفقة TPU في تاريخ Google أواخر 2025 — مئات الآلاف من وحدات Trillium TPU في 2026، مع التوسع نحو مليون بحلول 2027.

اتبعت Amazon مساراً مماثلاً. رقاقة Trainium2 التي صممها فريق Annapurna Labs (المُستحوذ عليه عام 2015 مقابل 350 مليون دولار) مصممة خصيصاً لتدريب الذكاء الاصطناعي على نطاق واسع. يقدم Trainium2 أداءً أعلى 4 مرات من الجيل الأول من Trainium، مع 1.3 PFLOPS من FP8 الكثيف لكل رقاقة ونسبة أداء/سعر أفضل بنسبة 30 إلى 40% من مثيلات EC2 القائمة على GPU. صعّدت Amazon أكثر في re:Invent 2025 مع Trainium3، المصنوع على عقدة تقنية 3 نانومتر، يقدم حوسبة أكثر بـ 4.4 مرة وكفاءة طاقة أفضل 4 مرات وعرض نطاق ذاكرة أكبر 4 مرات مقارنة بـ Trainium2. تقدم كل رقاقة Trainium3 أداءً بقوة 2.52 PFLOPS FP8 مع 144 غيغابايت من HBM3e، وتتوسع خوادم Trn3 UltraServers إلى 144 رقاقة. تستطيع Amazon تقديم هذه الرقائق بأسعار تنافسية لأنها تتحكم في الرقاقة والمنصة السحابية وعلاقة العملاء — لا يوجد وسيط.

دخلت Microsoft سباق السيليكون المخصص مع Maia 200، الذي قُدم في يناير 2026 — مسرّع استدلال مخصص على تقنية 3 نانومتر من TSMC. تدّعي Microsoft أن Maia 200 هو أكثر سيليكون ملكي أداءً من أي مشغل سحابة فائق، مع أداء FP4 أعلى 3 مرات من Trainium3 لـ Amazon وأداء FP8 يفوق TPU v7 من Google. مع 216 غيغابايت من HBM3e بعرض نطاق 7 تيرابايت/ثانية و272 ميغابايت من SRAM على الرقاقة، نُشر Maia 200 الآن في منطقة مركز البيانات US Central لـ Microsoft وأُدمج في Azure.

انفجر سوق الدوائر المتكاملة المخصصة (ASIC) الداعمة لجهود مشغلي السحابة الفائقة. تصمم Broadcom رقائق ذكاء اصطناعي مخصصة لـ Google (بما في ذلك سيليكون TPU) وMeta وغيرها — بلغت إيراداتها المرتبطة بالذكاء الاصطناعي نحو 20 مليار دولار في السنة المالية 2025، بارتفاع 65% من 12.2 مليار دولار في السنة السابقة، مع توقعات تتجاوز 50 مليار دولار للسنة المالية 2026. تصمم Marvell سيليكون مخصصاً لـ Amazon (Trainium) وMicrosoft (Maia) ومشغلي سحابة فائقة آخرين، مع إيرادات مرتبطة بالذكاء الاصطناعي تجاوزت 1.5 مليار دولار في السنة المالية 2025. تضحي هذه الرقائق بالعمومية مقابل الكفاءة: يمكن لـ ASIC مخصص محسّن لعبء عمل واحد أن يقدم كفاءة أعلى 3 مرات أو أكثر من GPU متعدد الأغراض، وهو أمر بالغ القيمة على نطاق مشغلي السحابة الفائقة.

بين الشركات الناشئة، تغيّر المشهد بشكل جذري. وقّعت Cerebras، التي تصنع رقائق بحجم رقاقة السيليكون (wafer-scale) (رقاقة سيليكون كاملة كمعالج واحد يضم 4 تريليونات ترانزستور — أكثر بـ 19 مرة من B200 لـ Nvidia)، صفقة بقيمة تتجاوز 10 مليارات دولار لتزويد OpenAI بعتاد الذكاء الاصطناعي. تشاركت Meta مع Cerebras لواجهة برمجة تطبيقات Llama، مدّعية استدلالاً أسرع 18 مرة من الحلول القائمة على GPU. جمعت Cerebras أكثر من 2 مليار دولار في 2025-2026 وتستهدف طرحاً أولياً عاماً في الربع الثاني من 2026 بتقييم 23 مليار دولار. استحوذت Nvidia على Groq في ديسمبر 2025 مقابل نحو 20 مليار دولار — أكبر صفقة لـ Nvidia على الإطلاق — بعد أن صممت Groq رقائق محسّنة للاستدلال باستخدام معمارية LPU حتمية حققت 300 إلى 750 رمزاً في الثانية (نحو 10 أضعاف إنتاجية GPU). يجري دمج تقنية LPU من Groq في معمارية Vera Rubin من Nvidia. تواصل SambaNova تقديم معماريتها لتدفق البيانات القابلة لإعادة التكوين عبر رقاقة SN40L، فائزة بعقود سحابة ذكاء اصطناعي سيادية في أستراليا وأوروبا والمملكة المتحدة.


سلاسل التوريد وضوابط التصدير والجيوسياسة

لا يعمل سوق رقائق الذكاء الاصطناعي في سياق تجاري بحت. تقيّد ضوابط التصدير الأمريكية، المفروضة لأول مرة في أكتوبر 2022 والمشدّدة تدريجياً في 2023 و2024، بيع رقائق الذكاء الاصطناعي المتقدمة إلى الصين. لا يمكن تصدير H100 وA100 من Nvidia ومشتقاتها إلى العملاء الصينيين. صممت Nvidia رقائق مخفّضة الأداء — H800 وA800 ثم H20 — خصيصاً للسوق الصيني، لكن المشهد التنظيمي أصبح متقلباً. وضعت « قاعدة نشر الذكاء الاصطناعي » لإدارة Biden في يناير 2025 عتبات أداء عالمية حجبت وحدات GPU الرائدة مع إنشاء « منطقة خضراء » للنماذج الأقل قوة مثل H20. ثم حظرت إدارة Trump حتى صادرات H20 في أبريل 2025، وتراجعت في يوليو بالموافقة على تراخيص H20 وAMD MI308، وفي ديسمبر 2025 أعلنت خططاً للموافقة على بيع H200 من Nvidia إلى الصين — أقوى رقاقة ذكاء اصطناعي يُسمح بتصديرها على الإطلاق. باعت Nvidia نحو مليون رقاقة H20 لعملاء صينيين في 2024 قبل أن تشتد القيود.

كان رد الصين تسريع تطوير الرقائق المحلية. تم اعتماد Ascend 910B من Huawei، المكافئ تقريباً لـ A100 من Nvidia، على نطاق واسع من قبل شركات الذكاء الاصطناعي الصينية. يقترب Ascend 910C الأحدث — تصميم ثنائي الشرائح يدمج وحدتي 910B — من أداء H100 دون مضاهاته، حيث يقدم نحو 800 TFLOPS FP16 مقابل نحو 2,000 TFLOPS لـ H100، رغم أنه يوفر ذاكرة أكبر (128 غيغابايت HBM3 مقابل 80 غيغابايت). تخطط Huawei لشحن أكثر من 800,000 وحدة من 910B/910C مجتمعة وتطوّر Atlas 950 SuperPod لعام 2026، الذي يربط 8,192 رقاقة Ascend لتقديم 8 ExaFLOPS من أداء FP8. تصنّع SMIC، المسبك الصيني الرائد، رقائق بتقنية 7 نانومتر باستخدام ليثوغرافيا DUV (للتحايل على قيود تصدير EUV من ASML) وتخطط لمضاعفة طاقتها الإنتاجية بتقنية 7 نانومتر في 2026. تطوّر SMIC قدرات 5 نانومتر لعام 2026، رغم أن التكاليف من المتوقع أن تكون أعلى بنسبة 50% من العملية المكافئة لـ TSMC وأن العوائد الأولية قد تبلغ نحو 33%. تبقى SMIC متأخرة بجيلين إلى ثلاثة أجيال عن العمليات الأكثر تقدماً لـ TSMC.

تمثل تركز سلسلة التوريد في حد ذاته خطراً. تصنّع TSMC في تايوان فعلياً جميع رقائق الذكاء الاصطناعي الأكثر تقدماً في العالم. أي تعطل في عمليات TSMC — سواء بسبب كارثة طبيعية أو نزاع جيوسياسي أو قيود في الطاقة الإنتاجية — سيوقف إمدادات رقائق الذكاء الاصطناعي عالمياً. دفع هذا التركز إلى الاستثمار في بدائل التصنيع: يضم مجمع TSMC في أريزونا الآن ثلاثة مصانع (4 نانومتر تشغيلي، 3 نانومتر متوقع 2026-2027، 2 نانومتر/1.6 نانومتر مستهدف لـ 2029)، ومصنع Fab 52 لـ Intel تشغيلي على تقنية 18A مع تمويل قدره 7.86 مليار دولار من CHIPS Act، وحصلت Samsung على 4.75 مليار دولار لتوسيع عملياتها في تكساس. حفّز CHIPS and Science Act بتمويله الإجمالي البالغ 52.7 مليار دولار أكثر من 630 مليار دولار من الاستثمارات الخاصة في أشباه الموصلات عبر 140 مشروعاً في 28 ولاية أمريكية منذ 2020. بالنسبة لصناعة الذكاء الاصطناعي، أصبحت مرونة سلسلة توريد أشباه الموصلات مصدر قلق استراتيجي على مستوى مجالس الإدارة.

إعلان


🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الأهمية بالنسبة للجزائر متوسطة — الجزائر مستهلكة للرقائق وليست منتجة؛ فهم مشهد العرض ضروري لتخطيط البنية التحتية للذكاء الاصطناعي والمشتريات السحابية
هل البنية التحتية جاهزة؟ لا — لا تمتلك الجزائر صناعة أشباه موصلات؛ الوصول السحابي لرقائق الذكاء الاصطناعي هو القناة المناسبة
هل المهارات متاحة؟ لا — يتطلب تصميم الرقائق وهندسة أشباه الموصلات تعليماً متخصصاً غير متاح على نطاق واسع في الجزائر
الجدول الزمني للعمل مراقبة فقط — يتغير المشهد التنافسي سنوياً؛ يجب على الجزائر تتبع الأسعار والتوافر للوصول السحابي إلى وحدات GPU
أصحاب المصلحة الرئيسيون مزودو السحابة العاملون في الجزائر، مشغلو مراكز البيانات الجزائريون، مؤسسات أبحاث الذكاء الاصطناعي، وزارة الاقتصاد الرقمي
نوع القرار تعليمي

خلاصة سريعة: المنافسة المتصاعدة بين Nvidia وAMD وGoogle وAmazon وMicrosoft تخفض تكاليف الحوسبة للذكاء الاصطناعي، مما يجعل البنية التحتية السحابية للذكاء الاصطناعي في متناول المؤسسات الجزائرية بشكل متزايد. يجب على الجزائر متابعة هذا السوق لاتخاذ قرارات مشتريات سحابية مستنيرة، بينما يضيف البُعد الجيوسياسي لضوابط التصدير الأمريكية-الصينية ومخاطر التركز على TSMC حالة عدم يقين في سلسلة التوريد تستحق المراقبة.

المصادر والقراءات الإضافية

Leave a Comment

إعلان