ذكاء اصطناعي لبقية العالم
تعاني ثورة الذكاء الاصطناعي من مشكلة لغوية جوهرية. فالنماذج الرائدة التي تتصدر العناوين — GPT-4 وClaude وGemini — صُمّمت أساساً للناطقين بالإنجليزية. وهي تؤدي جيداً في عدد محدود من اللغات الأخرى الغنية بالموارد: الفرنسية والألمانية والإسبانية والصينية واليابانية. لكن بالنسبة لغالبية اللغات التي يتجاوز عددها 7,000 لغة حول العالم — والأهم من ذلك، بالنسبة لكثير من اللغات التي يتحدثها مليارات البشر في أفريقيا والشرق الأوسط وجنوب آسيا وجنوب شرق آسيا — تتراوح قدرات هذه النماذج بين المتوسطة وغير القابلة للاستخدام.
في 17 فبراير 2026، أطلقت Cohere Labs نموذج Tiny Aya في قمة India AI Summit — وهو عائلة من النماذج متعددة اللغات مفتوحة الأوزان مبنية على قاعدة تضم 3.35 مليار معامل، تغطي أكثر من 70 لغة وتعمل دون اتصال بالإنترنت على أجهزة المستهلكين العادية، من الحواسيب المحمولة إلى الهواتف الذكية. تتضمن العائلة خمسة نماذج: Tiny Aya Base (الأساس المُدرَّب مسبقاً)، وTiny Aya Global (المضبوط على التعليمات عبر 67 لغة بأداء متوازن)، وثلاثة نماذج إقليمية متخصصة — Tiny Aya Earth للغات الأفريقية وغرب آسيا، وTiny Aya Fire للغات جنوب آسيا، وTiny Aya Water للغات آسيا والمحيط الهادئ وأوروبا.
Tiny Aya صغير بالمعايير الحالية. بمعاملاته البالغة 3.35 مليار، هو أصغر بنحو مئة ضعف من النماذج الرائدة. ولا يستطيع منافسة Claude أو GPT-5 في مهام الاستدلال المعقدة باللغة الإنجليزية. لكن هذه المقارنة تغفل الهدف تماماً. فبالنسبة لمزارع في كينيا يبحث عن نصائح زراعية بالسواحيلية، أو طالب في بنغلاديش يدرس بالبنغالية، أو صاحب مشروع صغير في الجزائر يتعامل مع الخدمات الحكومية بالعربية، يقدم Tiny Aya شيئاً لا يوفره أي نموذج رائد: مساعدة ذكاء اصطناعي مفيدة بلغتهم الأم، على أجهزة يمكنهم الوصول إليها فعلاً، ودون الحاجة إلى اتصال بالإنترنت.
هندسة الإتاحة
يعكس تصميم Tiny Aya سلسلة من المفاضلات المدروسة بين القدرة والإتاحة. يستخدم النموذج بنية محوّل ذاتي الانحدار (auto-regressive transformer) بآلية انتباه هجينة — انتباه بنافذة منزلقة (sliding window attention) للطبقات الثلاث الأولى (بحجم نافذة 4,096) وانتباه شامل في الطبقة الرابعة — مُحسَّن بتضمينات الموضع الدورانية (Rotary Position Embeddings – RoPE) ونافذة سياق بحجم 8 آلاف رمز للإدخال والإخراج معاً.
يُعدّ المُرمِّز (tokenizer) مكوناً حاسماً وأحد أبرز الإنجازات التقنية لـ Tiny Aya. تستخدم معظم النماذج الرائدة مُرمِّزات صُمّمت أساساً للإنجليزية، مما يُجزّئ النصوص غير الإنجليزية إلى رموز صغيرة كثيرة. فقد تتطلب كلمة عربية أو هندية واحدة من ثلاثة إلى خمسة رموز في نموذج بمُرمِّز متمركز حول الإنجليزية، مقارنة برمز واحد أو اثنين في مُرمِّز مُحسَّن للغات المتعددة. يزيد هذا التجزيء من التكلفة الحسابية، ويُقلّص نافذة السياق الفعلية، ويُضعف جودة التوليد. أُعيد تصميم مُرمِّز Tiny Aya خصيصاً لتقليل التجزئة عبر الأنظمة الكتابية المختلفة، محققاً ما تصفه Cohere بأنه أكفأ ترميز عبر الغالبية العظمى من اللغات المُقيَّمة.
كانت عملية تنظيم بيانات التدريب ربما الأكثر كثافة في العمل. فمبادرة Aya — وهي جهد علمي مفتوح عالمي نُظّم من خلال مختبر أبحاث Cohere المعروف بـ Cohere Labs — حشدت أكثر من 3,000 باحث ولغوي ومهندس وناطق أصلي من 119 دولة لتجميع بيانات تدريب لم تشمل نصوص الويب فحسب، بل أمثلة منتقاة من الكتابة عالية الجودة، وعروض توضيحية لاتباع التعليمات، واستجابات متوافقة مع معايير السلامة عبر عشرات اللغات. بالنسبة لبعض اللغات الأفريقية ولغات جنوب شرق آسيا منخفضة الموارد، تطلّب ذلك إنشاء بيانات التدريب من الصفر تقريباً.
والملفت أن النموذج بأكمله دُرِّب على 64 وحدة معالجة رسومات NVIDIA H100 فقط — وهو إعداد متواضع بالمعايير الحالية يُبرز فلسفة الكفاءة أولاً التي تقود المشروع. شملت مرحلة ما بعد التدريب الضبط الدقيق المُشرَف عليه والتدريب بالتفضيلات لمواءمة السلامة والفائدة.
والنتيجة هي نموذج، رغم أنه لا يُضاهي النماذج الرائدة في أي لغة بمفردها، يوفر وظائف مفيدة عبر نطاق من اللغات لا يستطيع أي نموذج رائد مجاراته. عبر أكثر من 70 لغة مدعومة، يتعامل Tiny Aya مع التفاعل المحادثي والإجابة على الأسئلة وتلخيص النصوص والترجمة ومهام الاستدلال البسيطة بمستوى مفيد عملياً للتطبيقات اليومية.
فجوة النماذج الرائدة
يُسلّط إطلاق Tiny Aya الضوء بوضوح على توتر متزايد في صناعة الذكاء الاصطناعي: الفجوة المتسعة بين القدرات المتاحة للناطقين بالإنجليزية وتلك المتاحة لبقية العالم.
تُدرَّب النماذج الرائدة أساساً على بيانات إنجليزية لأن الإنجليزية تهيمن على الإنترنت. وثّقت أبحاث من Stanford كيف تستبعد نماذج اللغة الكبيرة بشكل منهجي غير الناطقين بالإنجليزية، مما يخلق ما يسميه الباحثون “الفجوة اللغوية الرقمية”. فاللغات التي يتحدثها مئات الملايين — السواحيلية واليوروبا والتاميلية والبنجابية والأمهرية — لا تمثل سوى كسور ضئيلة من المحتوى على الويب. ولغة الهوسا، التي يتحدثها 80 مليون شخص، لا تحصل إلا على 0.0036% من التمثيل في مجموعات البيانات التدريبية الشائعة. والنماذج المدرَّبة على بيانات بحجم الويب تعكس حتماً هذه النسب، فتؤدي جيداً بالإنجليزية وبشكل أسوأ تدريجياً في اللغات الأقل تمثيلاً.
المشكلة تتفاقم. فمع اندماج أدوات الذكاء الاصطناعي بشكل أعمق في التعليم والرعاية الصحية والتجارة والخدمات الحكومية، تتحدد جودة الخدمات الرقمية المتاحة لمتحدثي لغة ما بشكل متزايد بجودة الذكاء الاصطناعي في تلك اللغة. فالطالب الذي يحظى بمعلم ذكاء اصطناعي طليق بالإنجليزية يعيش تجربة تعليمية مختلفة نوعياً عن طالب بالكاد يفهم معلمه الذكي لغته. والطبيب الذي يستخدم أدوات تشخيص مدعومة بالذكاء الاصطناعي بالفرنسية يحصل على دعم أفضل من طبيب يستخدم الأدوات ذاتها بلغة الهوسا.
يهدد هذا الواقع بخلق شكل جديد من عدم المساواة حيث لا يعتمد الوصول إلى الخدمات المدعومة بالذكاء الاصطناعي على الموارد الاقتصادية أو البنية التحتية التقنية، بل على اللغة التي يتحدثها المرء. أظهرت أبحاث من Johns Hopkins وBrookings أن أنظمة الذكاء الاصطناعي متعددة اللغات غالباً ما تعزز هذه التحيزات بدلاً من تقليصها، مُضخِّمة هيمنة الإنجليزية وتهميش اللغات الأقلية.
ليس Tiny Aya حلاً شاملاً لهذه الفجوة. فنموذج بحجم 3.35 مليار معامل لا يستطيع مجاراة عمق نموذج أكبر بمئة ضعف. لكنه يمثل فلسفة مختلفة في تطوير الذكاء الاصطناعي — فلسفة تُعطي الأولوية لاتساع الوصول على عمق القدرات، وتعامل الشمول اللغوي كهدف تصميمي من الدرجة الأولى وليس فكرة لاحقة.
إعلان
تشغيل الذكاء الاصطناعي على أجهزة المستهلكين
من أبرز الإنجازات العملية لـ Tiny Aya قدرته على العمل على أجهزة المستهلكين العادية. بمعاملاته البالغة 3.35 مليار مع تقنية التكميم (quantization) المناسبة، يعمل النموذج دون اتصال بالإنترنت على الحواسيب المحمولة الحديثة، وسجّلت اختبارات مستقلة أجرتها Futurum Group أن النموذج حقق 32 رمزاً في الثانية على iPhone 17 Pro — وهي سرعة كافية للاستخدام المحادثي الآني.
لهذا تداعيات عميقة على النشر في سياقات تكون فيها الحوسبة السحابية مكلفة أو غير موثوقة أو غير متاحة. تعاني مساحات شاسعة من العالم النامي من اتصال محدود أو متقطع بالإنترنت. وخدمات الذكاء الاصطناعي السحابية التي تتطلب تواصلاً مستمراً مع الخوادم غير عملية في المناطق الريفية من أفريقيا جنوب الصحراء وجنوب آسيا وجنوب شرق آسيا حيث التغطية الخلوية متقطعة وعرض النطاق مكلف. ونموذج يعمل محلياً على الجهاز يُلغي الاعتماد على الاتصال السحابي كلياً.
يعالج النشر المحلي أيضاً مخاوف الخصوصية التي تكون حادة بشكل خاص في سياقات ثقافية وسياسية معينة. فقد يحجم المستخدمون في الدول الاستبدادية عن إرسال استفسارات حساسة إلى خوادم سحابية أجنبية. والمهنيون الطبيون في مناطق ذات متطلبات صارمة لحماية البيانات قد لا يتمكنون من استخدام أدوات الذكاء الاصطناعي السحابية للاستفسارات المتعلقة بالمرضى. والنموذج الذي يعمل محلياً يحتفظ بالبيانات على الجهاز، مُزيلاً مخاطر الخصوصية المرتبطة بالذكاء الاصطناعي السحابي.
التداعيات الاقتصادية مهمة. فالاستدلال بالذكاء الاصطناعي السحابي مكلف — كل استعلام لنموذج رائد يكلف المزوّد كسوراً من السنت، وهو ما يتراكم إلى مليارات الدولارات سنوياً على نطاق واسع. وتُحمَّل هذه التكاليف في النهاية على المستخدمين عبر رسوم الاشتراك أو الإعلانات. أما النموذج الذي يعمل محلياً فلا تكلفة لكل استعلام بعد النشر الأولي، مما يجعله أقل تكلفة بشكل كبير للأسواق الحساسة للسعر.
النماذج متاحة للتنزيل على HuggingFace وKaggle وOllama، مع دعم النشر عبر Cohere Platform — مما يُخفّض حاجز الدخول أمام المطورين في جميع أنحاء العالم لبناء تطبيقات فوق Tiny Aya.
أداء المعايير المرجعية: صغير لكن قادر
رغم حجمه المدمج، يُظهر Tiny Aya أداءً تنافسياً مقارنة بنماذج بحجم مماثل أو حتى أكبر. في معيار الترجمة WMT24++، يتفوق Tiny Aya Global على GEMMA3-4B — وهو نموذج بمعاملات أكثر قليلاً — في 46 من أصل 61 لغة مُقيَّمة. والفارق واضح بشكل خاص في اللغات منخفضة الموارد حيث تمنحه بيانات التدريب المتخصصة ميزة واضحة.
في الاستدلال الرياضي، تكون الفوارق أكثر وضوحاً. في معيار GlobalMGSM للغات الأفريقية، حقق Tiny Aya دقة 39.2%، متفوقاً بشكل كبير على GEMMA3-4B بنسبة 17.6% وQWEN3-4B بنسبة 6.25% فقط. يشير هذا إلى أن تنظيم بيانات التدريب متعددة اللغات في Tiny Aya — لا سيما مساهمات الناطقين الأصليين في مجتمعات اللغات الممثلة تمثيلاً ناقصاً — ينتج مكاسب حقيقية في القدرات لا يمكن لحجم النموذج وحده تحقيقها.
للنموذج قيود واضحة. تظل مهام الاستدلال التسلسلي (chain-of-thought) صعبة، والفجوات في المعرفة الواقعية أكثر بروزاً في اللغات منخفضة الموارد، وتتفاوت الجودة عبر أكثر من 70 لغة مدعومة — اللغات الغنية بالموارد كالفرنسية والعربية تؤدي بشكل أكثر اتساقاً من اللغات ذات بيانات التدريب الأقل. هذه مفاضلات صادقة في نموذج صُمّم للاتساع وليس للعمق.
تساعد النسخ الإقليمية في معالجة تفاوت الأداء. يقدم Tiny Aya Fire، المُحسَّن للغات جنوب آسيا بما فيها البنغالية والهندية والبنجابية والأردية والغوجاراتية والتاميلية والتيلوغو والماراثية، أداءً أقوى في تلك اللغات من النسخة العالمية. وبالمثل، يُركّز Tiny Aya Earth موارده على اللغات الأفريقية بما فيها السواحيلية والهوسا واليوروبا والإيغبو والأمهرية، منتجاً استجابات أكثر ملاءمة ثقافياً مع تعامل أفضل مع أسماء الكيانات لتلك المناطق.
المجتمع وراء النموذج
ما كان Tiny Aya ليوجد لولا مجتمع Aya — شبكة عالمية تضم أكثر من 3,000 باحث ولغوي ومهندس وعالم اجتماعي وناطق أصلي من 119 دولة ساهموا في بيانات تدريب النموذج وتقييمه وضمان جودته. هذا المجتمع، المُنظَّم من خلال Cohere Labs، يمثل أحد أكثر الجهود التعاونية طموحاً في تاريخ الذكاء الاصطناعي.
كان نموذج المساهمة شاملاً عن قصد. جُنِّد ناطقون أصليون بلغات ممثلة تمثيلاً ناقصاً — كثير منهم ليسوا باحثين في الذكاء الاصطناعي — لإنشاء عروض توضيحية لاتباع التعليمات بلغاتهم. كانت هذه العروض أساسية لضبط النموذج على التعليمات. كما قدّم المجتمع تقييمات للجودة، باختبار النموذج بلغاتهم الأم وتقديم ملاحظات حول الدقة والطلاقة والملاءمة الثقافية.
يُبرز نموذج المجتمع هذا مساراً محتملاً لتطوير الذكاء الاصطناعي لا يعتمد كلياً على موارد الشركات الكبرى. فمن خلال تعبئة الناطقين الأصليين كمساهمين بدلاً من معاملتهم كمستهلكين سلبيين، أنشأ مشروع Aya قيمة لا يمكن لأي قدر من الحوسبة تكرارها — المعرفة اللغوية والثقافية الدقيقة التي لا يمتلكها إلا الناطقون الأصليون.
مبادرة Aya تبني نحو هذا الإطلاق منذ سنوات، مع معالم سابقة تشمل نموذج Aya 101 الذي يغطي 101 لغة. يمثل Tiny Aya تقطير تلك المعرفة المتراكمة في شكل مُحسَّن للنشر في العالم الحقيقي بدلاً من تعظيم نتائج المعايير المرجعية.
ما الذي ينتظر الذكاء الاصطناعي متعدد اللغات
Tiny Aya نقطة تحول، لكن الطريق نحو ذكاء اصطناعي متعدد اللغات عادل حقاً لا يزال طويلاً. فأكثر من 70 لغة يغطيها النموذج لا تمثل سوى جزء من التنوع اللغوي في العالم. وكثير من أكثر لغات العالم المهددة بالانقراض — التي يتحدثها مجتمعات صغيرة ذات حضور رقمي محدود — لا تزال غائبة تماماً عن أنظمة الذكاء الاصطناعي.
التحديات التقنية لتوسيع التغطية كبيرة. فبالنسبة لكثير من اللغات التي يتجاوز عددها 7,000 لغة حول العالم، لا يوجد نص رقمي كافٍ لتدريب حتى نموذج صغير. وبعض اللغات ليس لها شكل كتابي موحد، مما يجعل مقاربات الذكاء الاصطناعي المبنية على النصوص غير كافية جوهرياً. قد يكون الذكاء الاصطناعي المبني على الصوت — التعرف على الكلام وتوليده — أكثر ملاءمة للغات ذات التقاليد الشفوية، لكن هذه التقنيات تواجه تحديات ندرة البيانات الخاصة بها.
يثير نموذج الترخيص تساؤلات أيضاً. أُطلق Tiny Aya بموجب ترخيص CC-BY-NC — للاستخدام غير التجاري فقط — مع سياسة الاستخدام المقبول من Cohere. ورغم أن هذا يجعل النموذج متاحاً مجاناً للبحث ومشاريع المجتمع، فإن التطبيقات التجارية تتطلب اتفاقية Cohere Platform. هذا قرار تجاري واقعي، لكنه يعني أن المؤسسات الأكثر احتمالاً لنشر الذكاء الاصطناعي على نطاق واسع في الأسواق النامية — شركات الاتصالات والبنوك والهيئات الحكومية — ستحتاج إلى تراخيص تجارية.
ليس لهذه التساؤلات إجابات سهلة. لكن Tiny Aya يُثبت أن الحل لا يكمن ببساطة في انتظار أن تتحسن النماذج الرائدة في اللغات غير الإنجليزية — وهي عملية بطيئة بشكل مؤلم. قد يكمن الحل بدلاً من ذلك في نماذج متعددة اللغات مصممة لهذا الغرض، وتنظيم بيانات بقيادة المجتمع، وفلسفة لتطوير الذكاء الاصطناعي تقيس النجاح ليس بنتائج المعايير المرجعية بالإنجليزية، بل بالفائدة الحقيقية عبر الطيف الكامل للغات البشرية.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — العربية لغة أساسية مدعومة؛ الواقع اللغوي الثلاثي للجزائر (العربية والفرنسية والأمازيغية) يجعل الذكاء الاصطناعي متعدد اللغات ذا قيمة مباشرة للخدمات الحكومية والتعليم والتجارة |
| جاهزية البنية التحتية؟ | نعم — يعمل النموذج على أجهزة المستهلكين دون اعتماد على السحابة، متجاوزاً قيود الاتصال والبنية التحتية السحابية في الجزائر |
| توفر المهارات؟ | جزئي — يستطيع المطورون الجزائريون نشر النموذج عبر HuggingFace/Ollama، لكن ضبطه الدقيق للهجة الجزائرية العربية (الدارجة) أو الأمازيغية سيتطلب جهداً مجتمعياً إضافياً |
| الجدول الزمني للتنفيذ | فوري — النموذج متاح الآن؛ يمكن إطلاق مشاريع تجريبية لخدمات المواطنين باللغة العربية أو أدوات تعليمية في غضون أشهر |
| أصحاب المصلحة الرئيسيون | وزارة الرقمنة، هيئات الحكومة الإلكترونية، شركات التقنية التعليمية الجزائرية الناشئة، شركات الاتصالات (Djezzy وMobilis وOoredoo)، الجامعات ذات برامج معالجة اللغة الطبيعية (USTHB وESI) |
| نوع القرار | استراتيجي / تكتيكي |
خلاصة سريعة: Tiny Aya قابل للنشر فوراً في الجزائر لتطبيقات الذكاء الاصطناعي باللغتين العربية والفرنسية على أجهزة المستهلكين — دون تكاليف سحابية ودون اعتماد على الإنترنت. الفرصة الاستراتيجية هي أن تقوم المؤسسات الجزائرية بضبط النسخ الإقليمية للعربية الجزائرية (الدارجة) وربما الأمازيغية، مساهمةً في مجتمع Aya مع بناء قدرات ذكاء اصطناعي محلية. ابدأ بمشروع تجريبي: روبوت محادثة بالعربية لخدمة حكومية أو منصة تعليمية.
المصادر والقراءات الإضافية
- Cohere Labs Launches Tiny Aya, Making Multilingual AI Accessible — Cohere Blog
- Cohere Launches a Family of Open Multilingual Models — TechCrunch
- Tiny Aya Global Model Card — HuggingFace (CohereLabs)
- The Aya Initiative: Building AI for Underrepresented Languages — Cohere Labs
- How AI Is Leaving Non-English Speakers Behind — Stanford Report
- How Language Gaps Constrain Generative AI Development — Brookings





إعلان