ربع قياسي يعيد كتابة تاريخ Samsung
نتائج الربع الأول 2026 لـ Samsung Electronics ليست جيدة فحسب — إنها غير مسبوقة تاريخيًا. سجلت الشركة أرباحًا تشغيلية أولية بقيمة 57.2 تريليون وون (37.9 مليار دولار)، وهو رقم يكاد يعادل الرقم القياسي السنوي التاريخي لـ Samsung المسجل في 2018. في ربع واحد.
بلغت المبيعات الموحدة 133 تريليون وون (88 مليار دولار)، بزيادة 68% على أساس سنوي. لكن الرقم الأبرز هو ارتفاع الأرباح: زيادة بمقدار 8 أضعاف مقارنة بالربع الأول 2025، مدفوعة بالكامل تقريبًا بالطلب العالمي المتفجر على البنية التحتية للذكاء الاصطناعي. ما يقرب من 95% من أرباح Samsung — حوالي 36 مليار دولار — جاءت من قسم أشباه الموصلات.
تؤكد الأرقام ما توقعه المحللون منذ أشهر: دورة الذاكرة الفائقة للذكاء الاصطناعي لا تتباطأ. إنها تتسارع.
محرك HBM وراء الارتفاع
في صميم الربع القياسي لـ Samsung تقع ذاكرة النطاق الترددي العالي (HBM) — رقائق الذاكرة المكدسة المتخصصة التي توضع مباشرة على مسرعات الذكاء الاصطناعي مثل وحدات GPU من Nvidia ووحدات TPU من Google. توفر HBM الإنتاجية الهائلة للبيانات التي تتطلبها نماذج اللغة الكبيرة وأحمال عمل تدريب الذكاء الاصطناعي، وأصبحت عنق الزجاجة الأكثر أهمية في توسيع البنية التحتية العالمية للذكاء الاصطناعي.
تضاعف إيرادات HBM لدى Samsung ثلاث مرات تقريبًا في الربع الأول 2026 مقارنة بالربع الأول 2025. وكان هذا النمو مدفوعًا بعاملين: وصول رقائق HBM3E الخاصة بالشركة إلى كامل طاقة الإنتاج، وزيادة حادة في حجم التوريد لـ Nvidia التي تستهلك غالبية الإنتاج العالمي من HBM.
ثلاث شركات فقط في العالم تصنع HBM متقدمة: Samsung وSK Hynix وMicron. هذا الهيكل الاحتكاري القلة يعني أنه عندما يرتفع الطلب بشكل حاد — كما حدث طوال 2025 وحتى 2026 — تنتقل قوة التسعير بشكل كبير لصالح المصنعين. ارتفعت أسعار الذاكرة تبعًا لذلك، مع تأثيرات متتالية على تكاليف الخوادم وأسعار الخدمات السحابية وحتى الإلكترونيات الاستهلاكية.
تصاعد المنافسة مع SK Hynix
يأتي الربع القياسي لـ Samsung مع تحفظ مهم: لا تزال الشركة في مرحلة اللحاق بـ SK Hynix في سوق HBM. حتى الربع الثالث 2025، كانت SK Hynix تمتلك حوالي 53% من سوق HBM، وSamsung 35%، وMicron تتبع بـ 11%. منح تأهيل SK Hynix المبكر لدى Nvidia لـ HBM3E ميزة كبيرة أمضت Samsung العام الماضي في محاولة سدها.
الفجوة تضيق. نجحت Samsung في تأهيل قطع HBM3E لديها مع عملاء رئيسيين وتسارع في زيادة الإنتاج بقوة. تعمل الشركة على توسيع طاقة إنتاج الذاكرة بحوالي 50% في 2026 لتلبية طلب الذكاء الاصطناعي.
لكن ساحة المعركة الحقيقية هي HBM4 — الجيل التالي من ذاكرة النطاق الترددي العالي التي ستشغل منصة Rubin القادمة من Nvidia. يتوقع محللو UBS أن SK Hynix ستستحوذ على حوالي 70% من سوق HBM4 لـ Rubin، بينما تضع Samsung متغيراتها HBM4E كرهان طويل الأمد. في مؤتمر GTC 2026 في مارس، كشفت Samsung علنًا عن حلول HBM4E تقدم 4.0 تيرابايت/ثانية من عرض النطاق بسرعة 16 جيجابت/ثانية لكل دبوس — أول عرض عام لأداء ذاكرة الجيل القادم بهذا المستوى.
أعلن الرئيس التنفيذي المشارك لـ Samsung ورئيس قسم الرقائق أن “Samsung عادت” في إشارة إلى HBM4، مشيرًا إلى أن الشركة ترى في الانتقال الجيلي فرصتها لاستعادة الريادة السوقية.
إعلان
دورة الذاكرة الفائقة وضحاياها
كانت دورة الذاكرة الفائقة المدفوعة بالذكاء الاصطناعي تحويلية لـ Samsung وSK Hynix وMicron. لكنها خلقت أيضًا أضرارًا جانبية عبر سلسلة التوريد التكنولوجية الأوسع.
رقائق الذاكرة سلعة، وعندما يمتص طلب الذكاء الاصطناعي غالبية طاقة الإنتاج، يواجه المشترون الآخرون — مصنعو الحواسيب والهواتف الذكية وشركات السيارات — نقصًا وارتفاعًا في الأسعار. وصف المحللون هذا بـ “Ramageddon”: سيناريو يطرد فيه طلب ذاكرة الخوادم العرض المخصص للمستهلكين والمؤسسات، مما يرفع أسعار كل شيء من الحواسيب المحمولة إلى المعدات الصناعية.
توضح نتائج Samsung نفسها هذه الديناميكية. بينما سجل قسم أشباه الموصلات أرباحًا استثنائية، قدمت وحدات الأعمال الأخرى — بما في ذلك الهواتف والشاشات والإلكترونيات الاستهلاكية — أداءً أكثر تواضعًا. يركز طفرة الذكاء الاصطناعي القيمة في إنتاج السيليكون بينما يضغط على الهوامش في أماكن أخرى من منظومة الأجهزة.
ماذا تعني الأرقام للبنية التحتية للذكاء الاصطناعي
تحمل نتائج الربع الأول 2026 لـ Samsung عدة تداعيات على صناعة الذكاء الاصطناعي الأوسع:
قيد الطاقة الإنتاجية حقيقي. مع ثلاثة مصنعين فقط لـ HBM وطلب ينمو أسرع من العرض، يتقيد بناء البنية التحتية للذكاء الاصطناعي بتوفر الذاكرة وليس فقط بعرض GPU. يجب على مشغلي السحابة الفائقة الذين يخططون لمراكز بيانات جديدة تأمين حصص الذاكرة بسنوات مقدمًا.
قوة التسعير تنتقل نحو الأعلى. لسنوات، استحوذ مزودو الخدمات السحابية وشركات الذكاء الاصطناعي على غالبية القيمة في مكدس الذكاء الاصطناعي. تعيد دورة الذاكرة الفائقة توزيع الهامش نحو الأعلى لصالح مصنعي المكونات. قد يبطئ هذا انخفاض تكاليف الاستدلال بالذكاء الاصطناعي الذي كانت المؤسسات تعتمد عليه.
المخاطر الجيوسياسية مركزة. جميع مصنعي HBM الثلاثة مقرهم في شرق آسيا — Samsung وSK Hynix في كوريا الجنوبية، وMicron في الولايات المتحدة لكن مع تصنيع كبير في آسيا. أي اضطراب في الإنتاج بهذه المناطق — سواء بسبب كارثة طبيعية أو توترات جيوسياسية أو ضوابط تصدير — سيكون له تأثير عالمي فوري على قدرات الذكاء الاصطناعي.
انتقال HBM4 حدث يعيد تشكيل السوق. الشركة التي تفوز في سباق تأهيل HBM4 لمنصة Rubin من Nvidia ستحدد على الأرجح الديناميكية التنافسية للسنوات الثلاث إلى الخمس القادمة. استثمار Samsung العدواني وتوسع طاقتها الإنتاجية يشيران إلى أنها تراهن بكل شيء على هذا الانتقال.
الطريق إلى الأمام
ارتفاع أرباح Samsung بنسبة 755% هو لقطة لسوق في خضم تحول هيكلي. لا يظهر طلب الذاكرة للذكاء الاصطناعي أي علامات على بلوغ الذروة — تتجاوز خطط الإنفاق الرأسمالي لمشغلي السحابة الفائقة في 2026 مبلغ 700 مليار دولار عالميًا، وكل دولار يُنفق على تجمعات GPU يتطلب استثمارًا مقابلاً في HBM.
السؤال هو ما إذا كانت Samsung قادرة على تحويل زخمها الحالي إلى مكاسب مستدامة في حصة السوق أمام SK Hynix، أم أن جيل HBM4 سيعيد ببساطة تعيين المشهد التنافسي. في كلتا الحالتين، رسالة الربع الأول 2026 واضحة: في عصر الذكاء الاصطناعي، لم تعد الذاكرة سلعة. إنها أصل استراتيجي.
الأسئلة الشائعة
لماذا تُعد ذاكرة النطاق الترددي العالي (HBM) حرجة للذكاء الاصطناعي ولماذا لا يمكن استخدام بدائل؟
HBM هي ذاكرة مكدسة توضع مباشرة على رقائق تسريع الذكاء الاصطناعي، وتوفر 5 إلى 10 أضعاف عرض النطاق الترددي لذاكرة DDR القياسية. تتطلب نماذج اللغة الكبيرة وتدريب الذكاء الاصطناعي نقل كميات هائلة من البيانات بين الذاكرة ووحدات الحوسبة كل ملي ثانية. لا تستطيع الذاكرة القياسية مواكبة هذا الإيقاع، مما يخلق عنق زجاجة يجعل HBM لا يمكن الاستغناء عنها لأحمال عمل الذكاء الاصطناعي المتقدمة.
كيف تؤثر زيادة أرباح Samsung بنسبة 755% على المستخدمين النهائيين وعملاء السحابة؟
تعكس الزيادة انتقال قوة التسعير إلى مصنعي الذاكرة. يجب على مزودي الخدمات السحابية مثل AWS وAzure وGoogle Cloud دفع المزيد مقابل HBM، وتُمرر هذه التكاليف إلى العملاء عبر أسعار أعلى للمثيلات. يجب على المؤسسات التي تعتمد على مثيلات سحابية مسرّعة بـ GPU لأحمال عمل الذكاء الاصطناعي أن تتوقع ضغطًا مستمرًا على الأسعار.
ما هو انتقال HBM4 ولماذا يهم المشهد التنافسي؟
HBM4 هو معيار الذاكرة من الجيل التالي الذي سيشغل منصة GPU Rubin القادمة من Nvidia. المصنّع — Samsung أو SK Hynix — الذي يفوز بالتأهيل الرئيسي لدى Nvidia سيهيمن على السوق لمدة 3 إلى 5 سنوات. تستثمر Samsung بقوة في HBM4E لاستعادة الريادة السوقية من SK Hynix، مما يجعل هذا الانتقال المعركة التنافسية الأكثر حسمًا في ذاكرة أشباه الموصلات.
المصادر والقراءات الإضافية
- Samsung Q1 2026 Record Profit: AI Memory Chip Demand Drives 755% Surge — IndexBox
- Samsung’s profit surged 8x in Q1 2026, driven by AI data center boom — SamMobile
- Samsung makes history with record-breaking Q1 profit, higher than full 2025 earnings — KED Global
- SK hynix holds 62% of HBM, Micron overtakes Samsung, 2026 battle pivots to HBM4 — Astute Group
- Samsung Unveils HBM4E AI Memory Chips at GTC 2026 in SK Hynix Supply Race — WinBuzzer






