نموذج مجهول يسيطر على OpenRouter
في 11 مارس 2026، ظهر نموذج يُدعى “Hunter Alpha” على OpenRouter بدون اسم شركة، وبدون بطاقة تعريف نموذجية، وبدون أي إعلان. مجرد نقطة وصول API بسعر منخفض للغاية بدا وكأنه خطأ.
خلال أيام، كان Hunter Alpha قد عالج أكثر من تريليون رمز. اكتشف المطورون والباحثون حول العالم الشيء نفسه بشكل مستقل: النموذج كان استثنائي الأداء، رخيصاً بشكل مذهل، ومجهول الهوية تماماً. قام مجتمع الذكاء الاصطناعي بتقييمه، واستخدم حقن الأوامر لمحاولة كشف مصدره، وحلل بصمة المُرمِّز الخاص به، ونوقشت النظريات عبر X وReddit وHacker News.
أشار الإجماع السائد إلى أن DeepSeek يختبر بهدوء نظاماً من الجيل التالي. لم يخمن أحد أنه Xiaomi.
كيف حاول المجتمع تحديد هوية Hunter Alpha
أنتج العمل التحقيقي عدة أدلة تقنية. أظهر تحليل المُرمِّز توزيعاً للمفردات متميزاً عن نماذج OpenAI وAnthropic وGoogle وMeta، لكن مع أوجه تشابه هيكلية مع نماذج اللغة الصينية. أشارت أنماط زمن الاستجابة إلى بنية Mixture of Experts (MoE) بعدد إجمالي مرتفع جداً من المعاملات لكن بمعاملات نشطة متواضعة لكل استعلام. أكد المستخدمون أن النموذج حافظ على أداء متماسك حتى حوالي مليون رمز، مما وضعه ضمن نوافذ السياق الأكثر قدرة المتاحة.
ظهر نموذج مجهول ثانٍ يُدعى “Healer Alpha” إلى جانب Hunter Alpha على OpenRouter. حدده المجتمع في النهاية على أنه MiMo-V2-Omni، نموذج Xiaomi متعدد الوسائط الذي يدعم النص والصورة والصوت.
بنهاية الفترة المجهولة، سجّل Hunter Alpha ما يعادل 1.27 مليون طلب، واستهلك 114.6 مليار رمز مدخل، وأنتج 563.8 مليار رمز مخرج — أي حوالي 500 مليار رمز أسبوعياً في ذروة الاستخدام.
Xiaomi تؤكد الهوية
في 18 مارس، أعلن فريق MiMo في Xiaomi رسمياً أن Hunter Alpha كان “نسخة اختبار داخلية مبكرة” من MiMo-V2-Pro. جاء الكشف مصحوباً بنتائج معايير مُتحقق منها من أطراف ثالثة والتزام بالأسعار يحافظ على المعدلات المحددة خلال المرحلة المجهولة.
كان المنطق واضحاً. لو أُطلق MiMo-V2-Pro تحت اسم Xiaomi، لتأثرت التقييمات بافتراضات حول ما يمكن لشركة إلكترونيات استهلاكية بناؤه. من خلال الإطلاق المجهول، ضمن الفريق أن أكثر من تريليون رمز من الاستخدام الفعلي قد صادق على النموذج بناءً على جدارته المحضة قبل أن تدخل الصورة الذهنية عن العلامة التجارية في المعادلة.
ولّدت الاستراتيجية اهتماماً عضوياً وتقييمات مستقلة وتغطية إعلامية تفوق ما كان أي إطلاق منتج تقليدي ليحققه.
إعلان
بنية النموذج
يستخدم MiMo-V2-Pro بنية Mixture of Experts بحوالي تريليون معامل إجمالي، منها 42 مليار نشطة خلال كل تمريرة أمامية. يمثل هذا حوالي ثلاثة أضعاف حجم سلفه MiMo-V2-Flash (309 مليار معامل إجمالي، 15 مليار نشط)، مع الحفاظ على تكاليف استدلال قابلة للإدارة من خلال التفعيل المتناثر.
يرث النموذج آلية الانتباه الهجين من MiMo-V2-Flash، مع زيادة النسبة من 5:1 إلى 7:1، مما يتيح نافذة سياق ضخمة بمليون رمز دون التوسع التربيعي في الحوسبة الذي تعاني منه المحولات القياسية. تُسرّع طبقة خفيفة الوزن للتنبؤ متعدد الرموز (MTP) سرعة التوليد.
تم تحسين MiMo-V2-Pro بعمق لحالات الاستخدام الوكيلية — الاستدلال متعدد الخطوات، واستدعاء الأدوات المستمر، والتخطيط طويل المدى، والتعافي التلقائي من الأخطاء ضمن أُطر معقدة مثل OpenClaw.
الأداء والتسعير
على ClawEval، الذي يقيس الأداء في الأُطر الوكيلية بما في ذلك استخدام الأدوات متعدد الأدوار والتخطيط طويل المدى، حقق MiMo-V2-Pro درجة 61.5، ليحتل المرتبة الثالثة عالمياً خلف Claude Opus 4.6 (66.3) ومتقدماً على GPT-5.2 (50.0). على مؤشر Artificial Analysis للذكاء، احتل المرتبة الثامنة عالمياً والثانية بين النماذج الصينية بدرجة 49. على SWE-bench Verified، حقق 78.0 بالمائة، مقترباً من Claude Opus 4.6 عند 79.6 بالمائة.
التسعير يجعل هذه الأرقام ذات أهمية استراتيجية. يكلف MiMo-V2-Pro دولاراً واحداً لكل مليون رمز مدخل وثلاثة دولارات لكل مليون رمز مخرج لسياق يصل إلى 256 ألف رمز، يتضاعف إلى دولارين وستة دولارات للسياق الكامل البالغ مليون رمز. مقارنة بـ GPT-5.4 بعشرة دولارات لكل مليون رمز مدخل وثلاثين دولاراً للمخرج، يعمل نموذج Xiaomi بحوالي خُمس إلى سُدس التكلفة لأداء مماثل على مستوى الحدود الأمامية.
الفريق وتحول المواهب
بُني MiMo-V2-Pro بواسطة فريق بقيادة Luo Fuli، المساهمة الرئيسية السابقة في نماذج DeepSeek الرائدة. وُلدت عام 1995، واكتسبت Luo شهرة في جامعة بكين بثمانية أبحاث في مؤتمر ACL واحد عام 2019. انضمت إلى أكاديمية Damo التابعة لـ Alibaba، ثم انتقلت إلى High-Flyer Quant (صندوق التحوط وراء DeepSeek)، حيث ساهمت في تطوير DeepSeek-V2. استقطبها الرئيس التنفيذي لشركة Xiaomi، Lei Jun، في أواخر 2025 براتب سنوي يُقدّر بحوالي 10 ملايين يوان (نحو 1.4 مليون دولار).
يمثل انتقال Luo من DeepSeek إلى Xiaomi اتجاهاً أوسع: أصبحت مواهب البحث في الذكاء الاصطناعي في الصين أكثر قابلية للتنقل. الخبرة المطلوبة لتدريب نماذج بتريليون معامل تنتشر عبر مزيد من المؤسسات، على الأقل داخل منظومة الذكاء الاصطناعي الصينية. عندما يجلب باحثون أفراد منهجية مُثبتة لبناء نماذج حدودية بكفاءة، يزداد عدد الشركات القادرة على بلوغ الحدود الأمامية بدلاً من أن يتقلص.
ما يشير إليه هذا بالنسبة لسوق الذكاء الاصطناعي
يتحدى MiMo-V2-Pro افتراضين شكّلا مشهد الذكاء الاصطناعي الأمامي. الأول أن الشركات الأمريكية فقط أو مختبرات الذكاء الاصطناعي المخصصة يمكنها إنتاج نماذج تنافسية عالمياً. Xiaomi هي في الأساس شركة إلكترونيات استهلاكية ومركبات كهربائية، ومع ذلك قدمت نظاماً يتفوق على GPT-5.2 في المعايير الوكيلية بجزء من التكلفة.
الافتراض الثاني أن الذكاء الاصطناعي الأمامي يتطلب تسعيراً أمامياً. قدمت المختبرات الصينية — DeepSeek أولاً بفلسفة الكفاءة، والآن Xiaomi بالتحسين المشترك للأجهزة والبرمجيات — باستمرار أداءً أفضل لكل دولار من نظيراتها الغربية. أجبرت قيود التصدير على رقائق الذكاء الاصطناعي المتقدمة المختبرات الصينية على الابتكار في الكفاءة، وما بدأ كقيد تحول إلى ميزة تنافسية.
أشارت Xiaomi إلى أنها تخطط لنشر نسخة مفتوحة المصدر من MiMo-V2-Pro “عندما تكون النماذج مستقرة بما يكفي”. حتى بدون الأوزان المفتوحة، فإن التسعير المنخفض لواجهة برمجة التطبيقات يجعل بالفعل القدرات الأمامية متاحة للمطورين والمؤسسات التي كانت مستبعدة من أسعار GPT-5.x أو Claude Opus 4.6.
الأسئلة الشائعة
كيف استطاعت Xiaomi بناء نموذج ذكاء اصطناعي أمامي وهي معروفة بالهواتف الذكية؟
استقطبت Xiaomi كلاً من Luo Fuli وباحثين آخرين من DeepSeek، المختبر الصيني الذي أثبت كيفية بناء نماذج أمامية بكفاءة استثنائية. Luo التي ساهمت في DeepSeek-V2 جلبت منهجية مُثبتة لتدريب نماذج واسعة النطاق بتكلفة حوسبة أقل. بالتكامل مع قاعدة إيرادات Xiaomi واستثماراتها في البنية التحتية، طوّر الفريق بنية MiMo من MiMo-V2-Flash (309 مليار معامل) إلى MiMo-V2-Pro (تريليون معامل) مع الحفاظ على فلسفة الكفاءة التي تُبقي تكاليف الاستدلال منخفضة.
هل MiMo-V2-Pro فعلاً أرخص بخمس مرات من المنافسين؟
نعم، ويبدو أن التسعير مستدام. بدولار واحد لكل مليون رمز مدخل وثلاثة دولارات للمخرج (حتى سياق 256 ألف رمز)، يكلف MiMo-V2-Pro حوالي خُمس ما يتقاضاه GPT-5.4. تأتي ميزة التكلفة من بنية MoE (42 مليار فقط من تريليون معامل تُفعّل لكل استعلام) وآلية الانتباه الهجين 7:1 التي تقلل المتطلبات الحوسبية للاستدلال في السياق الطويل. المقايضة هي في منظومة أقل نضجاً — التوثيق ومجموعات أدوات التطوير والدعم المؤسسي لا يزالون يلحقون بـ OpenAI وAnthropic.
هل سيتوفر MiMo-V2-Pro كمصدر مفتوح؟
أشارت Xiaomi إلى أنها تخطط لنشر نسخة مفتوحة المصدر “عندما تكون النماذج مستقرة بما يكفي”. اتبعت الشركة هذا النمط مع MiMo-V2-Flash الذي نُشر كمصدر مفتوح على HuggingFace في ديسمبر 2025. حالياً، لا يمكن الوصول إلى MiMo-V2-Pro إلا عبر منصة API الخاصة بـ Xiaomi وOpenRouter. حتى بدون الأوزان المفتوحة، فإن التسعير المنخفض لواجهة برمجة التطبيقات يسد جزئياً فجوة الوصول التي سيحلها المصدر المفتوح.
المصادر والقراءات الإضافية
- Xiaomi Stuns With New MiMo-V2-Pro LLM Nearing GPT-5.2, Opus 4.6 Performance at a Fraction of the Cost — VentureBeat
- Who’s That AI? The Mystery Model Everyone Blamed on DeepSeek Turned Out to Be Xiaomi — Technology.org
- Chinese AI Prodigy Luo Fuli Joins Xiaomi as Industry Competition for Talent Heats Up — South China Morning Post
- Xiaomi Launches Three MiMo AI Models to Power Agents, Robots, and Voice — The Decoder
- MiMo-V2-Pro: Intelligence, Performance and Price Analysis — Artificial Analysis
- MiMo-V2-Pro API Pricing and Providers — OpenRouter
















