رد Meta على تقدّم النماذج المغلقة
عندما تسابقت OpenAI وGoogle وAnthropic للأمام مع GPT-5 وGemini 3.1 Pro وClaude Opus 4.6، تُركت مجتمع الأوزان المفتوحة مع خيارات قوية من الفئة المتوسطة لكن دون نظير حدودي حقيقي. كان إصدار Meta في أبريل 2025 لـ قطيع Llama 4 — Scout وMaverick وBehemoth المُعلن عنه بـ 2 تريليون معلمة — مصمماً لسد تلك الفجوة. بعد عام، يظل Llama 4 Maverick النموذج مفتوح الأوزان الأكثر قدرة الذي يمكن للمؤسسة نشره قانونياً على بنيتها التحتية الخاصة.
يأتي Maverick بـ 400 مليار معلمة إجمالية، منها فقط 17 مليار نشطة لكل توكن بفضل بنية Mixture-of-Experts (MoE) الأصلية مع 128 خبيراً. هذا التصميم هو المفتاح الاقتصادي: يمتلك النموذج قدرة معرفية لنموذج كثيف 400 مليار مع تكلفة تشغيل تقارب نموذج 17 مليار. جرى تدريبه المسبق على حوالي 22 تريليون توكن من البيانات متعدّدة الوسائط التي تغطي النص والصور والفيديو.
نوافذ السياق: Maverick بـ 1M، Scout بـ 10M
نقطة ارتباك شائعة: يدعم Llama 4 Maverick نافذة سياق 1 مليون توكن — واسعة بما يكفي لقواعد التعليمات البرمجية الكاملة وتحليل المستندات الطويلة — في حين يدفع شقيقه الأصغر Llama 4 Scout (109 مليار إجمالي / 17 مليار نشطة / 16 خبيراً) إلى نافذة سياق 10 مليون توكن، الأكبر لأي نموذج متاح علناً. يتسع Scout على وحدة GPU H100 واحدة وهو الخيار العملي عندما تكون عبء العمل ذا سياق طويل وليس استدلالاً ثقيلاً.
تقسيم العمل مقصود. Maverick هو ثقيل الوزن في الاستدلال والبرمجة لدى Meta، مُصمّم لمنافسة GPT-4o وClaude 3.7 Sonnet. Scout هو حصان العمل ذو السياق الطويل، خيار جاهز لأنابيب معالجة تعتمد على الاسترجاع الكثيف وقواعد معارف المؤسسات وسلاسل محادثات متعدّدة الأيام. Behemoth القادم (2 تريليون إجمالي، 288 مليار نشطة) هو النموذج المعلم المُقطّر في كليهما — لا يزال في المعاينة وقت الكتابة.
أداء الاختبارات المعيارية مقابل النظراء المغلقين
بلغ Maverick 1,417 ELO على Chatbot Arena عند الإطلاق، متفوقاً على GPT-4o ومتبادلاً الضربات مع Claude Sonnet 3.7 وGemini 2.0 Pro على اختبارات STEM بما فيها MATH-500 وGPQA Diamond. يؤكّد التقييم المستقل على Artificial Analysis أنه أقوى نموذج مفتوح الأوزان في الاستدلال وأفضل خيار مفتوح الأوزان للمهام متعدّدة الوسائط مع مدخلات بصرية.
حيث يتأخر: اختبارات البرمجة. على الرغم من كونه أكبر بحوالي 13 ضعفاً في إجمالي عدد المعلمات من منافسين مثل Gemma 4 31B، يُؤدّي Maverick بشكل أقل في تقييمات البرمجة العمّالية واستخدام الأدوات، مما دفع العديد من المشترين الموجّهين للمطوّرين إلى النشر المزدوج مع نموذج متخصّص أصغر.
بالنسبة للمؤسسات، المقارنة التي تستحق التشغيل هي Maverick مقابل عائلة Gemma 4 من Google وQwen 3.5 — الخياران الآخران الجديّان مفتوحا الأوزان في 2026. يحتل Gemma 4 31B المرتبة الثالثة على LMArena إجمالاً، ويسجل 85.2 % على MMLU Pro، ويُفعّل فقط 3.8 مليار معلمة لكل توكن. بالنسبة لمعظم أعباء عمل التطوير، سيكون Gemma 4 أو Qwen 3.5 الأصغر أسرع وأرخص في الاستضافة.
إعلان
سؤال الترخيص — ولماذا يهم
هنا يصبح منظر الأوزان المفتوحة معقداً. Llama 4 Maverick ليس مرخصاً بـ Apache 2.0 — يتم توزيعه بموجب Llama 4 Community License من Meta، والتي تحمل قيدين جوهريين:
- شرط 700 مليون مستخدم نشط شهرياً. يجب على أي خدمة تتجاوز 700 مليون مستخدم نشط شهرياً الحصول على إذن كتابي منفصل من Meta قبل استخدام النموذج تجارياً. عملياً، يستبعد هذا Amazon وMicrosoft وGoogle وByteDance وعدداً قليلاً من الآخرين من الترخيص افتراضياً.
- حظر التقطير. لا يمكن استخدام مخرجات نماذج Llama 4 لتدريب أو تحسين نماذج من شأنها أن تنافس نماذج Meta. هذا هو الشرط المهم لشركات النماذج الأساسية الناشئة والمؤسسات التي تفكر في متغيّراتها المقطّرة.
في المقابل، Gemma 4 يستخدم Apache 2.0 — لا حدّ للمستخدمين، ولا قيد على التقطير. GLM-5.1 يستخدم ترخيص MIT الأكثر سماحاً. بالنسبة للمؤسسات المنظّمة والمشترين الحكوميين في أوروبا والشرق الأوسط وشمال أفريقيا، أصبحت Gemma 4 وGLM-5.1 الخيارين المفضّلين مفتوحَي الأوزان تحديداً لأن شروط الترخيص صديقة للمدققين.
واقع العتاد والنشر
تشغيل Maverick في الإنتاج تمرين مختلف عن تشغيل Scout. إجمالي 400 مليار معلمة يعني أن الأوزان تشغل حوالي 750 جيجابايت في FP16، مما يضع الاستدلال في منطقة GPU متعدّدة — عادةً عقد 8x H100 أو 4x H200 لإنتاجية الإنتاج. نشرت NVIDIA أعمال تحسين تستهدف Llama 4 Scout وMaverick تحديداً بنواة TensorRT-LLM التي تُحسّن الإنتاجية مادياً، ويأتي إصدار Hugging Face مع دعم vLLM.
تقع تكلفة الخدمة على العتاد المستضاف ذاتياً قرب 0.50 دولار لكل مليون توكن إدخال في استخدام الحالة المستقرة على عقدة 8xH100، وهو ما يُنافس تسعير واجهة برمجة تطبيقات GPT-4o-mini لكنه أغلى بكثير من Gemma 4 27B المستضاف ذاتياً. للمؤسسات ذات سعة GPU الحالية ومتطلبات الامتثال التي تستدعي الاستدلال داخل الموقع، يؤتي Maverick أكله. للنشر الاقتصادي البحت، تفوز الخيارات الأرخص.
تداعيات المؤسسة
- الذكاء الاصطناعي السيادي أصبح حقيقياً. الدول والقطاعات المنظّمة التي تطالب بأوزان النماذج داخل الحدود الوطنية لديها الآن نموذج استدلال من فئة 400 مليار ونموذج طويل السياق 10 مليون يمكنها استضافتها ذاتياً قانونياً. توقعوا نشاط مشتريات من الدفاع والرعاية الصحية والمالية.
- تُعاد كتابة أنابيب معالجة RAG. يلغي سياق 10 مليون من Scout كثيراً من الحاجة إلى الاسترجاع المعقّد للمؤسسات متوسطة الحجم. نافذة 10 مليون تحتوي على حوالي 7,500 صفحة من النص — كافية لتتسع قاعدة المعرفة القانونية أو السياسية أو المتعلقة بالمنتج لمعظم الشركات في استعلام واحد.
- انتبه لتفاصيل الترخيص الدقيقة. شرط 700 مليون مستخدم نشط شهرياً لغم للتطبيقات الاستهلاكية عالية الحركة. إذا كان لمنتجك أي مسار إلى حجم معنوي، فقد تكون Gemma 4 أو Qwen 3.5 الرهان الأسلم على المدى البعيد.
- Behemoth قادم. نموذج المعلم من 2 تريليون معلمة المُعلن عنه من Meta، إذا تم إصداره بشكل مفتوح، سيقلب ميزان القوى بين مختبرات النماذج المغلقة والمفتوحة. ستكون شروط ترخيصه الإعلان الأكثر متابعة في النصف الثاني من 2026.
الصورة الأكبر
للمرة الأولى منذ وصول Llama 2 في 2023، يمتلك النظام البيئي مفتوح الأوزان نموذج استدلال حقيقي من الفئة الحدودية ونموذجاً طويل السياق قياسياً، منشورَين معاً. يمنح ذلك المؤسسات مصدراً ثانياً حقيقياً لكل بائع مغلق — رافعة تفاوضية كانت مفقودة في دورة المشتريات 2024-2025.
المفارقة هي أن ترخيص Meta التقييدي يضمن تحوّل مركز ثقل النظام البيئي نحو بدائل مفتوحة فعلاً. يستوعب Gemma 4 بموجب Apache 2.0 وQwen 3.5 بموجب Apache 2.0 وGLM-5.1 بموجب MIT الطلب الذي تستبعده شروط Meta. قد يكون Llama 4 Maverick النموذج الأكثر قدرة مفتوح الأوزان لعام 2026. لكنه أكثر فأكثر ليس النموذج الذي ينشره معظم المطوّرين فعلياً.
الأسئلة الشائعة
ما الفرق بين Llama 4 Maverick وScout؟
Maverick هو ثقيل الوزن في الاستدلال والبرمجة — 400 مليار معلمة إجمالية، 17 مليار نشطة، 128 خبيراً، سياق 1 مليون توكن، مُصمّم لمنافسة GPT-4o وClaude Sonnet. Scout هو حصان العمل ذو السياق الطويل — 109 مليار معلمة إجمالية، 17 مليار نشطة، 16 خبيراً، ونافذة سياق قياسية 10 مليون توكن. يتسع Scout على وحدة GPU H100 واحدة؛ يحتاج Maverick إلى عقد 8x H100 أو 4x H200 لإنتاجية الإنتاج.
هل يمكنني استخدام Llama 4 Maverick تجارياً دون دفع Meta؟
نعم، لكن بقيود. يسمح Llama 4 Community License بالاستخدام التجاري تحت 700 مليون مستخدم نشط شهرياً ويحظر استخدام مخرجات النموذج لتدريب نماذج منافسة. للمؤسسة النموذجية، لا يكون أي من الشرطين مانعاً. لشركة ناشئة قد يتوسّع منتجها إلى ما يتجاوز 700 مليون مستخدم نشط شهرياً أو لمختبر نماذج أساسية، الشروط مهمة — وGemma 4 (Apache 2.0) أو GLM-5.1 (MIT) هما رهانا أسلم على المدى البعيد.
هل تحل نافذة السياق 10 مليون توكن محل أنبوب معالجة RAG الخاص بي؟
للمؤسسات متوسطة الحجم، غالباً نعم. نافذة 10 مليون تحتوي على حوالي 7,500 صفحة من النص — كافية لتتسع قاعدة المعرفة القانونية أو السياسية أو المتعلقة بالمنتج الكاملة لمعظم الشركات في استعلام واحد. لمجموعات مستندات مؤسسية أكبر (مئات الآلاف من الصفحات) أو أعباء عمل ذات متطلبات حداثة صارمة، لا يزال RAG يفوز على التكلفة والكمون. من الأفضل استخدام سياق 10 مليون من Scout كـ “مبسّط جاهز” لمشاكل الاسترجاع متوسّطة التعقيد.
المصادر والقراءات الإضافية
- The Llama 4 herd: multimodal AI innovation — Meta AI
- Llama 4 Maverick Model Card — Hugging Face
- NVIDIA Accelerates Inference on Llama 4 Scout and Maverick — NVIDIA
- Gemma 4 vs Qwen 3.5 vs Llama 4: Open Model Comparison 2026 — Botmonster
- Meta Llama 4 Open-Weights Release: Scout vs Maverick — Royfactory






