سقف البرمجة مفتوح المصدر تحرّك للتو
على مدى عامين، ظلت قدرات البرمجة المتقدمة حكراً على المختبرات المغلقة. ثم، في 7 أبريل 2026، أطلقت Z.ai (المعروفة سابقاً باسم Zhipu AI) نموذج GLM-5.1، فتغيّر شكل لوحة الصدارة. على معيار SWE-Bench Pro — أقسى تقييم للبرمجة في بيئات حقيقية في الصناعة، والذي يقيس قدرة النموذج على حل إشكاليات GitHub فعلية داخل مستودعات كبيرة — سجل GLM-5.1 58.4، متجاوزاً GPT-5.4 عند 57.7، وClaude Opus 4.6 عند 57.3، وGemini 3.1 Pro عند 54.2. ووفقاً لتغطية Dataconomy، يجعل هذا GLM-5.1 أول نموذج صيني وأول نموذج مفتوح الأوزان يتصدر هذا المعيار.
أُتيحت أوزان النموذج على Hugging Face بموجب رخصة MIT. يستطيع أي فريق في أي مكان تنزيل النموذج وتعديله وضبطه ونشره تجارياً دون قيود.
ما هو GLM-5.1 تقنياً
GLM-5.1 هو تحديث ما بعد التدريب لنموذج GLM-5، وهو نموذج Mixture-of-Experts بـ 744 مليار معامل أطلقته Z.ai في وقت سابق من عام 2026. تحافظ البنية على نفس الحجم، لكنها توجّه كل تمريرة أمامية عبر نحو 40 مليار معامل نشط، وهذا ما يجعل النموذج قابلاً للتشغيل عند الاستدلال.
المواصفات الرئيسية، كما وردت في VentureBeat ووثائق Z.ai للمطورين:
- إجمالي المعاملات: نحو 744 مليار (MoE)
- المعاملات النشطة لكل تمريرة أمامية: نحو 40 مليار
- نافذة السياق: 202,752 رمز (نحو 200 ألف)، مع حد أقصى للإخراج 65,535 رمز
- الرخصة: MIT (الاستخدام التجاري والتعديل وإعادة التوزيع مسموح بها جميعاً)
- تاريخ الإطلاق: 7 أبريل 2026
النموذج مُحسَّن صراحةً للعمل الوكيلي طويل الأفق. وتُبرز VentureBeat ادعاء Z.ai بأن GLM-5.1 قادر على الحفاظ ذاتياً على محاذاة الهدف عبر مهام تمتد حتى نحو ثماني ساعات وآلاف الاستدعاءات للأدوات — وهو استهداف مباشر لسوق وكلاء البرمجة الذي تتنافس فيه Cursor وClaude Code وCodex.
المعيار الأهم في هذا الربع
SWE-Bench Pro هو المعيار الذي يُميّز العروض التسويقية عن مساعدي الهندسة القابلين للاستخدام الفعلي. فبدلاً من ألغاز معزولة، يقدّم للنموذج مستودعات كاملة وإشكاليات حقيقية من مشاريع مفتوحة المصدر في الإنتاج، ويقيس ما إذا كان التصحيح الذي يقترحه الوكيل يحل الإشكال عند تشغيل الاختبارات.
لوحة النتائج عند إصدار أبريل 2026:
| النموذج | SWE-Bench Pro | الرخصة |
|---|---|---|
| GLM-5.1 | 58.4 | MIT (مفتوح) |
| GPT-5.4 | 57.7 | خاص |
| Claude Opus 4.6 | 57.3 | خاص |
| Gemini 3.1 Pro | 54.2 | خاص |
الفجوة بين GLM-5.1 والحدود المغلقة تقع ضمن هامش الضوضاء لأي معيار مفرد. لكن اتجاه المسار هو الأهم: للمرة الأولى، تعود أفضل نتيجة برمجة مسجلة إلى نموذج يستطيع أي فريق هندسي استضافته ذاتياً.
إعلان
قصة العتاد أكبر من قصة النموذج
السرد التقني الذي أبرزه معظم المحللين الناطقين بالإنجليزية هو رقم المعيار. أما السرد الجيوسياسي الذي سيهم على المدى الأطول فهو منظومة التدريب. ووفقاً لـ Awesome Agents وLet’s Data Science، جرى التدريب المسبق لـ GLM-5 على عنقود من 100 ألف رقاقة Huawei Ascend 910B، باستخدام MindSpore — إطار التعلم العميق مفتوح المصدر من Huawei — كمنظومة تدريب. لم تُستخدم أي رقاقة GPU من NVIDIA، ولا أي مسرع من AMD، ولا أي شريحة من Intel.
شريحة Ascend 910B مُصممة من قبل وحدة HiSilicon التابعة لـ Huawei، ومُصنَّعة من قِبل SMIC بتقنية 7 نانومتر. كل شريحة على حدة أقل قوة من نظيرتها من NVIDIA؛ والإنجاز الهندسي تمثّل في تنسيق عنقود بهذا الحجم لإتمام عملية تدريب على 28.5 تريليون رمز دون أدوات التدريب الموزع التي تعتبرها منظومة NVIDIA أمراً مُسلّماً به.
بالنسبة للمشترين خارج محيط قيود التصدير الأمريكية — وهو ما يشمل الجزائر ومعظم أفريقيا والخليج وجنوب شرق آسيا وأمريكا اللاتينية — تُغيّر هذه التجربة الافتراض السائد بأن نموذجاً من الطراز المتقدم يستلزم حتماً سيليكون غربياً من الطراز المتقدم.
تشغيل النموذج محلياً لا يزال مشكلة صعبة
قراءة عبارة «مفتوح المصدر، برخصة MIT» وتخيّل نشر محلي أمر سهل. لكن تشغيل نموذج MoE بـ 744 مليار معامل في الإنتاج أصعب بكثير. إذ تتطلب بيئة الخدمة الكاملة واقعياً مئات الجيجابايتات من ذاكرة GPU (ثماني بطاقات من فئة H100، أو عنقود Ascend مماثل) حتى مع التكميم وتوزيع الخبراء. ولهذا السبب سيكون مسار النشر قصير المدى لمعظم الفرق كما يلي:
- الوصول عبر API من Z.ai أو OpenRouter — مُدرج بنحو 0.95 دولار للإدخال / 3.15 دولار للإخراج لكل مليون رمز على OpenRouter، أي نحو ثلث تكلفة النماذج المغلقة المماثلة.
- الاستدلال المُدار عبر المنصات السحابية الصينية الضخمة — تستضيف Alibaba Cloud وTencent Cloud وHuawei Cloud جميعها نماذج GLM.
- الاستضافة الذاتية لحالات استخدام محددة — نسخ مُكمَّمة بـ 4 بت وتقطيرات متخصصة للفرق ذات متطلبات محددة لسيادة البيانات أو التكلفة.
تعني رخصة MIT أن الذيل الطويل من احتمالات النشر — الضبط الدقيق على قواعد الكود الخاصة، والتقطير إلى نماذج أصغر متخصصة لمهام معينة، وبناء أدوات مطورين محلية أولاً — أصبح متاحاً أخيراً دون إذن من المورد.
ما يعنيه هذا لبُناة الجنوب العالمي
الإشارة العملية الفورية هي أن سعر ذكاء اصطناعي برمجي قادر قد انخفض بشكل حاد. الفريق الذي يقيّم ما إذا كان سيعتمد GitHub Copilot Enterprise أو Cursor Pro أو بديلاً محلياً أصبح لديه الآن خيار ثالث موثوق: نموذج مرخّص بموجب MIT يتصدر أصعب معيار برمجة عام، بسعر API يبلغ نحو ثلث سعر Claude Opus 4.6.
وبالنسبة لفرق البرمجيات الجزائرية، تتعلق الآثار من المستوى الثاني بتقليل الاعتماد الاستراتيجي على موردين تُحدَّد أسعارهم وتوفرهم وسياسات التصدير لديهم خارج البلاد. لا يرفع GLM-5.1 كل القيود — إذ لا يزال تشغيله جيداً يتطلب ميزانية GPU جدية، ولا يزال أفضل استدلال اليوم يأتي من OpenRouter ومزودي السحابة الصينيين — لكنه يُضيّق الفجوة بين «ما يستخدمه القادة العالميون» و«ما يستطيع فريق جزائري مجهّز استضافته ذاتياً أو استئجاره» بطريقة لم تكن موجودة قبل ستة أشهر.
الأسئلة الشائعة
هل GLM-5.1 أفضل فعلاً من Claude Opus 4.6 في البرمجة؟
على SWE-Bench Pro — الذي يقيس حل إشكاليات GitHub الحقيقية — سجّل GLM-5.1 نتيجة 58.4 مقابل 57.3 لـ Claude Opus 4.6، أي تفوق بنحو نقطة واحدة. ويُقدّر مراجعون مستقلون أن GLM-5.1 يحقق نحو 94.6% من جودة الترميز الإجمالية لـ Opus 4.6، مع احتفاظ Opus بتفوق في التفكير الإبداعي وتصميم الأنظمة الهندسية طويلة الأفق. ولمعظم مهام CRUD وإصلاح الأخطاء، يكاد الفارق يكون غير ملحوظ؛ أما لتصميم الأنظمة الجديدة، فيبقى Opus في الصدارة.
هل يستطيع فريق هندسي جزائري استضافة GLM-5.1 ذاتياً بشكل واقعي؟
فقط إذا امتلك عنقود GPU من ثماني بطاقات من فئة H100 أو ما يُعادلها من Ascend، وهو ما تمتلكه قلة قليلة من الشركات الجزائرية حالياً. المسار الواقعي لعام 2026 هو الوصول عبر API من OpenRouter أو Z.ai (نحو 0.95 دولار لكل مليون رمز إدخال و3.15 دولار لكل مليون رمز إخراج على OpenRouter)، أو الاستدلال المُدار عبر Alibaba Cloud أو Huawei Cloud أو Tencent Cloud. وتصبح الاستضافة الذاتية مجدية على المستوى الموسَّع — عادةً مع 50 مطوراً أو أكثر، أو عند وجود متطلبات صارمة لسيادة البيانات.
لماذا تهم حقيقة «التدريب بدون NVIDIA» للمشترين خارج الولايات المتحدة؟
لأنها تُثبت أن نموذجاً من الطراز المتقدم يمكن بناؤه على منظومة عتاد غير غربية، وهو ما يُقوّض الافتراض القائل بأن السيادة في الذكاء الاصطناعي تستلزم الوصول إلى رقائق NVIDIA الخاضعة لقيود التصدير. بالنسبة للجزائر ودول أخرى قد تُقيّد فيها السياسة الأمريكية الوصول إلى GPUs في أي وقت، يُثبت تدريب GLM-5 على Huawei Ascend أن سلسلة إمداد بديلة موجودة وتُنتج نتائج تنافسية. وهذه إشارة استراتيجية للتخطيط التكنولوجي الوطني، وليست مجرد بيانات مشتريات.
المصادر والقراءات الإضافية
- Z.ai’s GLM-5.1 Tops SWE-Bench Pro, Beating Major AI Rivals — Dataconomy
- AI Joins the 8-Hour Work Day as GLM Ships 5.1 Open-Source LLM, Beating Opus 4.6 and GPT-5.4 on SWE-Bench Pro — VentureBeat
- Zhipu AI’s GLM-5.1 Can Rethink Its Own Coding Strategy Across Hundreds of Iterations — The Decoder
- How China’s GLM-5 Works: 744B Model on Huawei Chips — Let’s Data Science
- GLM-5.1 API Pricing & Providers — OpenRouter
- Pricing Overview — Z.AI Developer Docs
















