نموذج استدلال يتّسع على بطاقة GPU واحدة
كان سباق الاستدلال في الذكاء الاصطناعي يتجه نحو الأكبر: مئات المليارات من المعاملات، بُنى mixture-of-experts متشعّبة، وفواتير استدلال تتضخّم مع كل موجّه. يكسر DeepSeek R2 هذا النمط. صدر تحت رخصة MIT، وهو transformer كثيف بـ 32 مليار معامل يحقق 92.7% على AIME 2025 — معيار American Invitational Mathematics Examination الذي أصبح المرجع الفعلي للاستدلال الرمزي متعدد الخطوات. للمقارنة، حقّق سلفه R1 حوالي 74% على نفس المعيار في التقييم المستقل، ونماذج الحدود الغربية لم تتجاوز 90% إلا حديثاً.
العنوان ليس النتيجة وحدها، بل شكل النموذج. بـ 32 مليار معامل، يتّسع R2 بسهولة على بطاقة NVIDIA RTX 4090 أو A6000 واحدة، وفق تحليل تقني من Decode The Future. يعني ذلك أن الفرق التي تمتلك محطة عمل أو GPU سحابياً متواضعاً تستطيع استضافة محرك استدلال من مستوى الحدود — دون عنقود H100 ولا عقد استدلال بستة أرقام.
كيف وصل DeepSeek إلى هنا: التدريب اللاحق، لا تضخّم المعاملات
يعكس نهج R2 وصفة التوسّع السائدة. بدلاً من حشو المزيد من المعاملات في النموذج الأساسي، استثمر DeepSeek في التدريب اللاحق — تحديداً نسخة مُحسّنة من خط أنابيب التعلّم المعزّز GRPO (Group Relative Policy Optimization) الذي قدّمته الشركة مع R1. الرهان: التعلّم المعزّز المنظّم بعناية على آثار الاستدلال يُستخرج ذكاء أكبر لكل معامل من مجرد توسيع التدريب المسبق.
النتائج توحي بأن الرهان ناجح. على AIME 2025، يُجيب R2 بشكل صحيح على 14 مسألة من أصل 15 تقريباً، كل منها يتطلب استدلالاً متسلسلاً متعدد الخطوات. ذلك يضعه في نفس شريحة الأداء مع نماذج ملكية أكبر بكثير، بجزء يسير من تكلفة التشغيل. للمؤسسات التي تُقيّم مورّدي الذكاء الاصطناعي في 2026، الدلالة مباشرة: عدد المعاملات لم يعد وكيلاً موثوقاً لجودة الاستدلال.
الاضطراب السعري
النتائج الخام لا تهمّ إلا إذا ترجمت إلى اقتصاد نشر. هنا يطرح R2 ادّعاءه الأحدّ. تُسعّر واجهة DeepSeek API نموذج R2 بحوالي 30% من تكلفة أعباء عمل مماثلة على GPT-5 أو Claude 4.6 — خصم 70% على استدلال الحدود. تُظهر صفحة تسعير OpenRouter نماذج استدلال DeepSeek ضمن أرخص خيارات طبقة الحدود المتوفرة عبر بوابة كبرى.
بالنسبة للفرق التي تُشغّل أعباء عمل عالية الحجم — توليد الكود، تحليل المستندات الواسع، تنسيق الوكلاء المتعدد — يتراكم هذا الفارق السعري. عبء عمل يكلّف 100,000 دولار شهرياً على GPT-5 قد ينخفض إلى ~30,000 دولار شهرياً على R2، بافتراض جودة مماثلة على المهمة المستهدفة. ولأن R2 مفتوح الأوزان، تستطيع الفرق التي تملك GPU خاصة دفع تكلفة الاستدلال الحدية نحو الصفر.
إعلان
ماذا يعني ذلك لحزمة الذكاء الاصطناعي المؤسسية
لا يستبدل R2 كل نماذج الحدود. قد تظل سير العمل الوكيلة ذات استدعاء الأدوات المعقد، أو الاستدلال متعدد الوسائط على الفيديو، أو تركيب البحث بسياق طويل — تفضّل GPT-5 أو Claude. لكن لفئة متنامية من المهام — الاستدلال الرياضي، مشكلات الكود المُهيكل، التحليل الحتمي — يُقدّم R2 بديلاً حقيقياً بجمعه بين الأوزان المفتوحة وجودة الحدود.
السؤال الاستراتيجي للمدراء التقنيين لم يعد “أي نموذج وحيد نوحّد عليه؟” بل “كيف نوجّه أعباء العمل عبر حزمة متدرّجة: المهام الثقيلة بالاستدلال والحسّاسة للتكلفة تذهب إلى R2، والأعباء المميّزة تذهب إلى واجهات الحدود المُغلقة؟” أصبح توجيه النماذج تخصّصاً قائماً بذاته، ويُقدّم R2 نقطة ارتكاز مفتوحة الأوزان موثوقة.
الجيوسياسة والتحفّظ
صعود R2 قصة جيوسياسية أيضاً. DeepSeek مختبر صيني، وعلى المؤسسات في القطاعات المُنظّمة — المالية، الدفاع، الصحة — أن تُوازن إقامة البيانات، وموقف ضوابط التصدير، وضمان سلسلة التوريد قبل نشر R2 إنتاجياً. استضافة إصدار الأوزان المفتوحة ذاتياً تُخفّف بعض هذه المخاوف (لا تغادر البيانات المؤسسة)، لكن فرق المشتريات يجب أن تُجري مراجعة مخاطر الطرف الثالث المعتادة.
تجدر الإشارة أيضاً إلى أن AIME 2025 معيار رياضي، لا مقياس شامل لفائدة النموذج. أبرزت تقييمات مستقلة، بينها مراجعة نقدية على Medium، حالات تتفوّق فيها نماذج DeepSeek على معايير مُنتقاة بينما تتراجع على موجّهات واقعية أكثر فضفاضية. تظل فجوة المعيار إلى الإنتاج حقيقية؛ وأي قرار تبنٍّ يجب أن يرتكز على تقييمات داخلية على أعباء العمل المستهدفة تحديداً.
قاع منحنى التكلفة تحرّك للتوّ
الإشارة الأوسع أن أرضية السعر لكل رمز استدلال هبطت بقوة، وتهبط مجدّداً. يُمثّل DeepSeek V3.2 وR2 معاً لحظة أصبحت فيها نماذج مفتوحة الأوزان من مختبر غير غربي منافسةً على أصعب معايير الاستدلال وأرخص بأمر قدره في التشغيل. هذا ليس حدثاً عارضاً — بل نمط تسعير يجب أن تأخذه في الحسبان كل خارطة طريق ذكاء اصطناعي مؤسسية في 2026. المورّدون الذين يعجزون عن تقديم إجابة موثوقة لسؤال “لماذا ليس DeepSeek؟” سيواجهون ضغطاً على المشتريات طوال بقية العام.
الأسئلة الشائعة
ما الذي يُميّز DeepSeek R2 عن نماذج الاستدلال السابقة؟
R2 هو transformer كثيف بـ 32 مليار معامل صادر تحت رخصة MIT يحقق 92.7% على AIME 2025 — مستوى أداء كان مرتبطاً سابقاً فقط بنماذج أكبر منه 5 إلى 10 مرات. حقّقت DeepSeek ذلك بالاستثمار المكثّف في التدريب اللاحق عبر التعلّم المعزّز GRPO بدلاً من توسيع معاملات النموذج الأساسي.
كم R2 أرخص من GPT-5 أو Claude 4.6؟
تُسعّر واجهة DeepSeek المستضافة نموذج R2 بحوالي 30% من تكلفة أعباء عمل مماثلة على GPT-5 أو Claude 4.6 — خصم 70%. وللنشر الذاتي على GPU خاصة بك، تقترب تكلفة الاستدلال الحدّية من الصفر.
هل يستطيع R2 العمل على عتاد متوفّر في الجزائر؟
نعم. تتّسع معمارية R2 الكثيفة بحجم 32 مليار معامل على بطاقة NVIDIA RTX 4090 أو A6000 واحدة للاستدلال. عنقود HPC في ENSIA (بطاقات H100، L40S، A40) قادر أكثر من اللازم على استضافته. للفرق الأصغر، تُقدّم واجهة DeepSeek المستضافة أو بوابة OpenRouter وصولاً سحابياً دون استثمار في العتاد.
المصادر والقراءات الإضافية
- DeepSeek R2 Explained: 92.7% AIME, 32B Open-Weight — Decode The Future
- DeepSeek-V3.2 Matches GPT-5 at 10x Lower Cost — Introl Blog
- DeepSeek V3.2 API Pricing & Providers — OpenRouter
- DeepSeek V3.2 Beats GPT-5 on Elite Benchmarks — Introl Blog
- DeepSeek’s Performance with the AIME 2025 Math Benchmark — Medium











