⚡ أبرز النقاط

كلّف تدريب GPT-4 ما يُقدّر بـ 78 إلى 100 مليون دولار في الحوسبة وحدها، ووصلت تكاليف تدريب النماذج المتقدمة في 2025 إلى 300-500 مليون دولار لكل عملية تدريب. يتضاعف الطلب على الحوسبة لتدريب الذكاء الاصطناعي كل ستة أشهر — بوتيرة أسرع بكثير من قانون Moore — بينما تأتي تحسينات عتاد GPU كل عامين، مما يخلق فجوة هيكلية تحصر تطوير الذكاء الاصطناعي المتقدم بين أقل من عشر مؤسسات حول العالم.

خلاصة: يجب على القادة التقنيين الذين يقيّمون استراتيجيات الذكاء الاصطناعي أن يأخذوا بعين الاعتبار أن حاجز الحوسبة أمام البحث المتقدم ارتفع بثلاث مراتب من المقادير في خمس سنوات، مما يجعل ابتكارات الكفاءة مثل بنيات MoE وتقطير المعرفة ضرورية لأي مؤسسة خارج احتكار القلة من كبار المزودين.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار (المنظور الجزائري)

الأهمية بالنسبة للجزائر
متوسطة — لن تدرّب الجزائر نماذج متقدمة، لكن فهم اقتصاديات توسيع الحوسبة ضروري لصنّاع السياسات الذين يقيّمون استراتيجيات السيادة في الذكاء الاصطناعي وللمؤسسات التي تختار بين النشر المحلي والقائم على واجهات البرمجة

متوسطة — لن تدرّب الجزائر نماذج متقدمة، لكن فهم اقتصاديات توسيع الحوسبة ضروري لصنّاع السياسات الذين يقيّمون استراتيجيات السيادة في الذكاء الاصطناعي وللمؤسسات التي تختار بين النشر المحلي والقائم على واجهات البرمجة
جاهزية البنية التحتية
لا — تدريب النماذج المتقدمة يتطلب مجموعات من 10,000+ وحدة GPU مع شبكات InfiniBand وطاقة 100+ ميغاواط؛ تفتقر الجزائر لهذه البنية التحتية. لكن الضبط الدقيق والاستدلال على نماذج أصغر ممكن بالوصول السحابي الحالي

لا — تدريب النماذج المتقدمة يتطلب مجموعات من 10,000+ وحدة GPU مع شبكات InfiniBand وطاقة 100+ ميغاواط؛ تفتقر الجزائر لهذه البنية التحتية. لكن الضبط الدقيق والاستدلال على نماذج أصغر ممكن بالوصول السحابي الحالي
توفر المهارات
جزئي — تُخرّج الجامعات الجزائرية باحثين أكفاء في التعلم الآلي، لكن هندسة الأنظمة الموزّعة بالحجم المطلوب للتدريب المتقدم تخصص دقيق بخبرة محلية محدودة. مهارات الضبط الدقيق والنشر أكثر سهولة

جزئي — تُخرّج الجامعات الجزائرية باحثين أكفاء في التعلم الآلي، لكن هندسة الأنظمة الموزّعة بالحجم المطلوب للتدريب المتقدم تخصص دقيق بخبرة محلية محدودة. مهارات الضبط الدقيق والنشر أكثر سهولة
الإطار الزمني للعمل
مراقبة فقط — متابعة اتجاهات التكلفة وابتكارات الكفاءة؛ التركيز على المدى القريب على الضبط الدقيق للنماذج مفتوحة الأوزان (Mistral وLLaMA) بدلاً من التدريب من الصفر

مراقبة فقط — متابعة اتجاهات التكلفة وابتكارات الكفاءة؛ التركيز على المدى القريب على الضبط الدقيق للنماذج مفتوحة الأوزان (Mistral وLLaMA) بدلاً من التدريب من الصفر
أصحاب المصلحة الرئيسيون
باحثو الذكاء الاصطناعي، أقسام علوم الحاسوب الجامعية، وزارة الاقتصاد الرقمي، الشركات الناشئة الجزائرية التي تقيّم استراتيجيات البناء مقابل الشراء في الذكاء الاصطناعي، فرق شراء الخدمات السحابية
نوع القرار
تعليمي — فهم اقتصاديات توسيع الحوسبة يُنير قرارات استثمار أذكى في الذكاء الاصطناعي على كل المستويات

تعليمي — فهم اقتصاديات توسيع الحوسبة يُنير قرارات استثمار أذكى في الذكاء الاصطناعي على كل المستويات

خلاصة سريعة:

نبذة مختصرة: كلّف تدريب GPT-4 حسب التقارير ما بين 78 و100 مليون دولار أو أكثر في الحوسبة وحدها. ومن المرجح أن Gemini Ultra من Google تجاوز هذا الرقم. الجيل القادم من النماذج المتقدمة — المدرّبة على مجموعات من 100,000 وحدة GPU أو أكثر — قد يتجاوز عتبة المليار دولار. يتبع توسيع حوسبة الذكاء الاصطناعي قوانين رياضية تجعل كل جيل أكثر تكلفة بشكل أسّي، مما يحصر تطوير الذكاء الاصطناعي المتقدم بين أقل من عشر مؤسسات حول العالم. يشرح هذا المقال قوانين التوسع والاقتصاديات ولماذا يُجبر منحنى التكلفة الصناعة على إعادة التفكير في كيفية بناء النماذج.

في عام 2020، أنفقت OpenAI ما يُقدّر بـ 4 إلى 5 ملايين دولار لتدريب GPT-3، وفقاً لتحليل Stanford HAI — نموذج بـ 175 مليار معامل تطلّب ما يقارب 3,640 بيتافلوبس-يوم من الحوسبة. بعد أربع سنوات، قُدّرت تكلفة تدريب GPT-4 بما بين 78 و100 مليون دولار — ووصفها Sam Altman نفسه بأنها “أكثر من 100 مليون دولار”. بحلول 2025، وضعت تقديرات موثوقة ميزانية الحوسبة لنماذج Anthropic وGoogle وOpenAI المتقدمة في نطاق 300 إلى 500 مليون دولار لكل عملية تدريب. سباق البنية التحتية للذكاء الاصطناعي ليس مقتصراً على بناء مراكز البيانات. إنه يدور حول ما إذا كانت التكلفة الأسّية للتدريب ستنحني يوماً إلى الأسفل.

الرياضيات وراء هذا التصاعد ليست تخمينية. إنها تحكمها قوانين التوسع — علاقات تجريبية بين حجم النموذج وحجم البيانات وميزانية الحوسبة والأداء — ظلت مستقرة بشكل ملحوظ عبر خمسة مراتب من المقادير. فهم هذه القوانين هو فهم لماذا أصبح توسيع حوسبة الذكاء الاصطناعي القيد الاقتصادي المركزي للمجال بأكمله.

شرح قوانين التوسع

في يناير 2020، نشر باحثون في OpenAI — Jared Kaplan وSam McCandlish وزملاؤهم — ورقة بحثية غيّرت طريقة تفكير الصناعة في تطوير النماذج. أثبتوا أن أداء نماذج اللغة يتحسّن بشكل متوقع كدالة أسّية لثلاثة متغيرات: عدد المعاملات (N)، وحجم مجموعة بيانات التدريب (D)، وكمية الحوسبة (C) المستخدمة في التدريب.

الاكتشاف الحاسم كان أن مكاسب الأداء سلسة ومتوقعة. ضاعف الحوسبة وستحصل على تحسّن ثابت تقريباً في الخسارة. لم تكن هناك انقطاعات ولا هضاب — مجرد علاقة لا هوادة فيها وقابلة للقياس بين الموارد والقدرة. هذا يعني أن أداء النموذج يمكن التنبؤ به بدقة مدهشة قبل تخصيص أي وحدة GPU.

في 2022، صقلت ورقة Chinchilla من DeepMind هذه القوانين. أشار عمل Kaplan الأصلي إلى أن توسيع معاملات النموذج أكثر كفاءة من توسيع البيانات. أظهر Chinchilla العكس: الاستراتيجية المثلى هي توسيع المعاملات والبيانات بشكل متساوٍ تقريباً. نموذج بـ 70 مليار معامل مدرّب على 1.4 تريليون رمز تفوّق على نموذج بـ 280 مليار معامل مدرّب على رموز أقل بنفس ميزانية الحوسبة.

الأثر العملي كان هائلاً. كانت الصناعة تبني نماذج كبيرة جداً وتدرّبها على بيانات قليلة جداً. لم يغيّر Chinchilla مسار التكلفة الأساسي — بل صحّح الوصفة. لكن الفاتورة استمرت في الارتفاع.

منحنى التكلفة

الحوسبة المطلوبة لتدريب أحدث نماذج الذكاء الاصطناعي تتضاعف كل ستة أشهر تقريباً منذ 2010، وفقاً لتحليل Epoch AI. هذا منحنى أكثر حدة بكثير من قانون Moore، الذي يصف مضاعفة كثافة الترانزستورات كل عامين تقريباً.

لتقدير الحجم: تطلّب GPT-3 في 2020 ما يقارب 3.14 × 10^23 عملية حسابية عائمة. وتطلّب GPT-4 في 2023 ما يُقدّر بـ 2.15 × 10^25 — أي ما يقارب 70 ضعفاً. كل جيل يدفع إلى منطقة تُرهق فيها حتى مجموعات GPU الفائقة تحت الحمل.

تعوّض تحسينات العتاد جزئياً هذا النمو. تقدّم وحدة NVIDIA H100 GPU ما يقارب ثلاثة أضعاف إنتاجية تدريب الذكاء الاصطناعي مقارنة بسابقتها A100. وتضاعف B200 ذلك مرة أخرى. لكن هذه المكاسب تأتي بوتيرة كل عامين تقريباً، بينما يتضاعف الطلب على الحوسبة كل ستة أشهر. الفجوة هيكلية وتتّسع.

التكلفة ليست فقط وحدات GPU. تتطلب عملية تدريب واحدة متقدمة خطوط إعداد بيانات ضخمة (بيتابايتات من النصوص والشيفرة والبيانات متعددة الوسائط المنقّحة)، وأنظمة تخزين موزّعة، وشبكات عالية النطاق الترددي لمزامنة التدرجات عبر آلاف وحدات GPU، وفرق هندسية قادرة على تصحيح الأعطال في مجموعات قد يتعطّل فيها أي مكوّن من 100,000 في أي يوم.

تشريح عملية التدريب

تخيّل كيف تبدو عملية تدريب بقيمة 200 مليون دولار فعلياً. نموذج متقدم افتراضي في 2026 قد يتدرّب على مجموعة من 32,000 وحدة NVIDIA B200 GPU، متصلة عبر NVLink داخل العقد وInfiniBand بينها، في مركز بيانات ذكاء اصطناعي مبني خصيصاً يستهلك 150 ميغاواط.

قد تستغرق عملية التدريب ثلاثة إلى أربعة أشهر. خلال تلك الفترة، تعمل المجموعة 24 ساعة يومياً، سبعة أيام في الأسبوع. تُحفظ نقاط التحقق — لقطات كاملة لأوزان النموذج — كل بضع ساعات على تخزين موزّع، مستهلكةً بيتابايتات من مساحة القرص. إذا أتلف عطل عتادي نقطة تحقق، تتراجع العملية ساعات أو أياماً من العمل.

استغلال GPU — نسبة الوقت الذي تؤدي فيه كل وحدة GPU حوسبة مفيدة فعلاً — مقياس كفاءة حاسم. تحقق أطر التدريب المتقدمة 38 إلى 55% من استغلال عمليات النموذج العائمة (MFU)، مما يعني أن نحو نصف القدرة الحاسوبية النظرية لـ GPU تُستهلك في أعباء الاتصال ونقل الذاكرة وفقاعات خط الأنابيب. تحسين MFU بنسبة قليلة فقط يمكن أن يوفّر عشرات الملايين من الدولارات في عملية تدريب متقدمة.

خطوط البيانات بنفس القدر من الأهمية. يجب إزالة التكرارات من بيانات التدريب وتصفيتها للجودة وتحويلها إلى رموز وخلطها — غالباً عدة مرات. تُملي قوانين التوسع من Chinchilla أن نموذجاً بتريليون معامل يجب أن يتدرّب مثالياً على نحو 20 تريليون رمز. تجميع وتنظيف وتجهيز هذا الحجم من البيانات تحدٍّ هندسي ينافس التدريب نفسه.

إعلان

من يستطيع تحمّل هذا؟

خلقت اقتصاديات توسيع حوسبة الذكاء الاصطناعي احتكاراً طبيعياً للقلّة. حتى مطلع 2026، لا تستطيع أكثر من عشر مؤسسات في العالم تدريب نماذج أساس متقدمة بشكل موثوق: OpenAI (بدعم من Microsoft)، وGoogle DeepMind، وAnthropic (بدعم من Amazon وGoogle)، وMeta، وxAI (بدعم من رأسمال Elon Musk)، وMistral (بدعم من مستثمرين أوروبيين)، وحفنة من المختبرات الصينية بما في ذلك ByteDance وAlibaba.

هذا التركّز ليس في الأساس بسبب الكفاءات — رغم ندرة باحثي الذكاء الاصطناعي المتقدم — بل بسبب رأس المال. عملية تدريب واحدة بتكلفة 500 مليون دولار لا تتطلب المال فحسب بل أيضاً البنية التحتية السحابية لتنفيذها. تأمين 30,000 وحدة GPU لأربعة أشهر يعني إما امتلاك العتاد أو التفاوض على عقود سعة محجوزة ضخمة مع مزودي GPU السحابيين.

النتيجة هي فجوة متّسعة بين المختبرات المتقدمة وبقية العالم. الجامعات والشركات الناشئة ومؤسسات البحث الحكومية التي كانت قادرة على المساهمة في البحث الأساسي للذكاء الاصطناعي في 2020 لم تعد قادرة على تدريب نماذج تنافسية. ارتفع حاجز الحوسبة أمام البحث المتقدم بنحو ثلاث مراتب من المقادير في خمس سنوات.

ابتكارات الكفاءة

الصناعة لا تقبل منحنى التكلفة بسلبية. عدة ابتكارات معمارية ومنهجية تقاوم التوسع الأسّي.

بنيات خليط الخبراء (MoE) تُفعّل جزءاً فقط من إجمالي معاملات النموذج لأي مدخل معطى، مما يقلّل بشكل كبير الحوسبة المطلوبة لكل رمز مع الحفاظ على سعة نموذج أكبر بكثير. Mixtral 8x7B مثلاً يستخدم 12.9 مليار معامل نشط من إجمالي 46.7 مليار، محققاً أداءً تنافسياً مع نماذج أكبر عدة مرات من حجمه الفعلي.

تقطير المعرفة — تدريب نماذج “تلميذ” أصغر لتكرار سلوك نماذج “معلّم” أكبر — يقدّم مساراً آخر. نموذج مقطّر قد يحقق 90% من أداء معلّمه بـ 10% من عدد المعاملات. هذا لا يقلّل تكلفة تدريب المعلّم، لكنه يقلّل بشكل كبير تكلفة نشر الذكاء الاصطناعي على نطاق واسع.

توليد البيانات الاصطناعية، حيث تنتج النماذج الحالية بيانات تدريب لنماذج مستقبلية، يُعيد تشكيل جانب البيانات من المعادلة بهدوء. يثير هذا النهج تحديات ضبط الجودة — يمكن للنماذج تضخيم تحيزاتها عبر التدريب الذاتي التكراري — لكنه يفصل جزئياً نطاق التدريب عن العرض المحدود من النصوص البشرية عالية الجودة.

التعلّم المنهجي، حيث تُدرّب النماذج أولاً على بيانات أبسط ثم تتعرض تدريجياً لأمثلة أصعب، يمكن أن يحسّن كفاءة التدريب بنسبة 20 إلى 30% في بعض الحالات، مقلّصاً إجمالي الحوسبة دون التضحية بالأداء النهائي.

محور الاستدلال

هناك مفارقة في صميم توسيع حوسبة الذكاء الاصطناعي: الجزء الأكثر تكلفة في دورة حياة النموذج ينتقل من التدريب إلى الاستدلال.

تدريب نموذج متقدم تكلفة لمرة واحدة (أو لعدة مرات)، تُوزّع على كل مستخدم وكل استعلام يخدمه النموذج على الإطلاق. الاستدلال — تكلفة تشغيل النموذج المدرّب فعلياً لتوليد الاستجابات — تكلفة لكل استعلام تتوسع خطياً مع الاستخدام.

تخدم OpenAI حسب التقارير مئات الملايين من الاستعلامات يومياً عبر ChatGPT وواجهة برمجة التطبيقات الخاصة بها. حتى بكسور من السنت لكل استعلام، تتجاوز فاتورة الاستدلال السنوية تكاليف التدريب. دمج Google لـ Gemini في محرك البحث — الذي يتعامل مع مليارات الاستعلامات اليومية — يجعل الاستدلال التكلفة الحاسوبية المهيمنة بهامش واسع.

هذا التحوّل يدفع الطلب نحو ملف عتادي مختلف. التدريب يُحسّن للإنتاجية الخام وعرض النطاق الترددي بين وحدات GPU. توسيع الاستدلال يُحسّن للتأخير والتكلفة لكل رمز وكفاءة الطاقة. السيليكون المخصص — TPUs من Google وTrainium وInferentia من Amazon وMaia من Microsoft — يُصمّم بشكل متزايد لاقتصاديات الاستدلال بدلاً من ذروة أداء التدريب.

بُنيت ثورة الذكاء الاصطناعي على فكرة أن توسيع الحوسبة يُحسّن قدرة الذكاء الاصطناعي بشكل متوقع. السؤال الآن هو ما إذا كانت الصناعة تستطيع مواصلة الصعود على منحنى تكلفة يتضاعف كل ستة أشهر — أم أن ابتكارات الكفاءة والاختراقات المعمارية ستثنيه نحو شيء مستدام.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما المقصود بـ AI Compute Scaling؟

يتناول هذا المقال الجوانب الأساسية لهذا الموضوع، ويستعرض الاتجاهات الحالية والجهات الفاعلة الرئيسية والتداعيات العملية على المهنيين والمؤسسات في عام 2026.

لماذا يُعد هذا الموضوع مهمًا؟

يكتسب هذا الموضوع أهمية كبيرة لأنه يؤثر بشكل مباشر على كيفية تخطيط المؤسسات لاستراتيجيتها التقنية وتخصيص مواردها وتموضعها في مشهد سريع التطور.

ما أبرز النقاط المستخلصة من هذا المقال؟

يحلل المقال الآليات الرئيسية والأطر المرجعية والأمثلة الواقعية التي تشرح كيفية عمل هذا المجال، مستندًا إلى بيانات حديثة ودراسات حالة عملية.

المصادر والقراءات الإضافية