عندما أصدرت Meta نموذج Llama 3 في أبريل 2024 بأوزان مفتوحة — مما جعل معلمات النموذج قابلة للتنزيل مجاناً لأي شخص — أشعلت واحداً من أهم النقاشات السياسية في تاريخ الذكاء الاصطناعي (AI). وعندما أطلقت DeepSeek نموذج R1 في يناير 2025، مُثبتةً أن باحثين صينيين يمكنهم إنتاج نموذج بمستوى حدودي بجزء من التكلفة الغربية، أصبح النقاش ملحاً.
السؤال بسيط خادع: هل يجب أن تكون أقوى نماذج الذكاء الاصطناعي مفتوحة؟
الإجابات — من الحكومات والشركات والباحثين والمجتمع المدني — تتباين بشكل حاد. وكيفية حل هذا السؤال ستشكّل ليس فقط صناعة الذكاء الاصطناعي، بل الجيوسياسة العالمية والتعاون العلمي والأمن القومي وتوزيع القوة الاقتصادية من الذكاء الاصطناعي للعقد القادم.
ما يعنيه فعلاً “الذكاء الاصطناعي مفتوح المصدر” (وما لا يعنيه)
مصطلح “الذكاء الاصطناعي مفتوح المصدر” يُستخدم بشكل غير متسق، وهذا الغموض مهم جداً للسياسة.
ما الذي يمكن أن يكون مفتوحاً في نظام ذكاء اصطناعي
| المكوّن | الوصف | مثال |
|---|---|---|
| كود التدريب | البرمجيات المستخدمة لتدريب النموذج | PyTorch، سكربتات التدريب |
| أوزان النموذج | المعلمات المدربة للنموذج | أوزان Llama 4 |
| البنية | تصميم الشبكة العصبية | تفاصيل بنية Transformer |
| بيانات التدريب | مجموعة البيانات المستخدمة لتدريب النموذج | نادراً ما تكون مفتوحة بالكامل |
| معايير التقييم | الاختبارات المستخدمة لتقييم النموذج | غالباً مفتوحة |
| كود الاستدلال | الكود لتشغيل النموذج المدرب | عادة مفتوح |
معظم النماذج الموصوفة بأنها “مفتوحة المصدر” تُصدر بعض هذه المكونات فقط — عادةً الأوزان وكود الاستدلال، لكن ليس بيانات التدريب أو البنية التحتية الكاملة للتدريب.
جدل تعريف مبادرة المصدر المفتوح
نشرت مبادرة المصدر المفتوح (OSI) — التي تحدد ما يُعتبر “مفتوح المصدر” في البرمجيات — تعريف الذكاء الاصطناعي مفتوح المصدر (OSAD) في 2024، ووجدت نفسها فوراً في صراع مع القطاع الصناعي.
وفق تعريف OSI، يكون نظام الذكاء الاصطناعي مفتوح المصدر حقاً فقط إذا كانت جميع المكونات اللازمة لدراسته وتعديله وإعادة توزيعه متاحة — مما يتطلب أن تكون بيانات التدريب مفتوحة. وفق هذا المعيار، لا يوجد نموذج ذكاء اصطناعي كبير يستوفي شرط المصدر المفتوح حقاً، لأن لا شركة أصدرت مجموعة بيانات تدريبها الكاملة.
انتقدت OSI بشكل خاص ترخيص Llama من Meta باعتباره “غسيل انفتاح” — استخدام لغة المصدر المفتوح وحسن نية المجتمع مع الحفاظ على قيود لا تتوافق مع مبادئ المصدر المفتوح.
صنّفت مؤسسة البرمجيات الحرة (Free Software Foundation) ترخيص Llama 3.1 كـترخيص برمجيات غير حرة في يناير 2025، مشيرة إلى قيود الاستخدام المقبول التي تحظر تطبيقات معينة.
هذه المعركة حول التعريف مهمة: المعاملة التنظيمية للذكاء الاصطناعي “المفتوح” قد تعتمد على ما تقرره المحاكم والمنظمون بشأن معنى “المفتوح” فعلاً.
الحجة لصالح الذكاء الاصطناعي مفتوح المصدر
إضفاء الطابع الديمقراطي على الوصول
النماذج المغلقة من OpenAI وAnthropic وGoogle متاحة عبر واجهة برمجة التطبيقات (API) — مما يعني الدفع لكل رمز، وقبول سياسات الاستخدام، والاعتماد على استمرار عمل الشركة. تسمح الأوزان المفتوحة لأي شخص بتشغيل النموذج محلياً وتعديله والبناء عليه دون إذن أو دفع.
هذا الإضفاء الديمقراطي مهم جداً:
- يستطيع الباحثون في البلدان ذات الدخل المنخفض إجراء أبحاث الذكاء الاصطناعي دون وصول مكلف لواجهات برمجة التطبيقات
- تستطيع الشركات الناشئة بناء منتجات ذكاء اصطناعي دون تكاليف استدعاء API التي تجعل اقتصاديات الوحدة مستحيلة
- تستطيع الحكومات نشر تطبيقات ذكاء اصطناعي سيادية دون الاعتماد على مزودي سحابة أجانب
- تستطيع القطاعات الحساسة للخصوصية (الرعاية الصحية، القانون، الحكومة) تشغيل الذكاء الاصطناعي محلياً دون إرسال البيانات إلى واجهات برمجة خارجية
الأمان من خلال الشفافية
بشكل مضاد للحدس، يمكن أن تكون النماذج المفتوحة أكثر أماناً:
- يستطيع باحثو الأمن فحص النموذج بحثاً عن نقاط ضعف وتحيزات وأنماط إخفاق
- مبدأ “العيون الكثيرة”: المزيد من الفحص ينتج أماناً أفضل
- تستطيع المؤسسات إجراء اختبارات عدائية على النماذج المفتوحة لا يمكنها إجراؤها على واجهات الصندوق الأسود
التقدم العلمي
أثبتت حركة البرمجيات مفتوحة المصدر أن الأسس المشتركة تُسرّع التقدم الجماعي. Linux وPython والمنظومة العلمية لـ Python مكّنت جميعها ابتكاراً هائلاً تالياً تحديداً لأنها كانت بنية تحتية مشتركة وليست منتجات احتكارية.
الحكومة الأمريكية صادقت على النماذج المفتوحة
إعلان تاريخي في سبتمبر 2025: شراكة إدارة الخدمات العامة الأمريكية (GSA) مع Meta لإتاحة نماذج Llama على مستوى الحكومة من خلال برنامج OneGov. تحققت GSA من أن Llama تلبي المتطلبات الفيدرالية للاستخدام من قبل جميع الإدارات والوكالات الفيدرالية.
الحجة ضد الذكاء الاصطناعي مفتوح المصدر (أو لصالح فرض حدود)
مخاطر الاستخدام المزدوج وسوء الاستخدام
الحجة الأكثر جدية لتقييد نماذج الذكاء الاصطناعي المفتوحة هي مشكلة الاستخدام المزدوج: القدرات التي تجعل الذكاء الاصطناعي مفيداً لأغراض مشروعة تجعله أيضاً مفيداً لأغراض ضارة.
تم بالفعل ضبط نماذج مفتوحة لإزالة حواجز السلامة — إصدارات “بدون رقابة” توفر تعليمات لأنشطة ضارة ترفضها النماذج المغلقة. القلق هو أن النماذج المفتوحة ذات القدرات الكافية قد تُمكّن من:
- المساعدة في تصميم أسلحة بيولوجية
- أتمتة الهجمات السيبرانية على نطاق واسع
- توليد معلومات مضللة مستهدفة
- تطوير أسلحة مستقلة
حجة المخاطر غير المتماثلة
يرى بعض باحثي سلامة الذكاء الاصطناعي أن الانفتاح يخلق مخاطر غير متماثلة: بينما تتراكم فوائد النماذج المفتوحة لكثير من المستخدمين بمرور الوقت، فإن استخداماً خبيثاً واحداً لنموذج مفتوح قد يسبب ضرراً كارثياً لا يمكن التراجع عنه.
مخاوف الأمن القومي
أعرب مجتمع الأمن القومي في الولايات المتحدة وأوروبا عن مخاوف من استخدام نماذج الذكاء الاصطناعي المفتوحة من قبل دول معادية، وخاصة الصين. لكن حقيقة أن DeepSeek أثبتت أن الباحثين الصينيين يمكنهم بناء نماذج تنافسية بغض النظر عن الوصول إلى النماذج المفتوحة الأمريكية أربكت هذه الحجة.
الاستجابة التشريعية: من يقترح ماذا
الكونغرس الأمريكي: حذر من الحزبين
قُدّمت عدة مشاريع قوانين في الكونغرس الأمريكي تقيّد إصدارات الذكاء الاصطناعي مفتوح المصدر. إطار شائع: السماح بالنشر المفتوح لـ “النماذج الحدودية منخفضة المخاطر” مع تجريم محتمل لإصدار نماذج مفتوحة فوق عتبات قدرة معينة.
آليات التفعيل المحددة قيد المناقشة:
- عتبة حوسبة التدريب (مثلاً النماذج المدربة بأكثر من 10^26 عملية حسابية)
- تقييمات القدرات (النماذج التي تتجاوز معايير اختبارات القدرات الخطيرة)
- تقييم الاستخدام المزدوج (النماذج التي تجتاز اختبارات محددة لتوليد تطبيقات خطيرة)
قانون الذكاء الاصطناعي الأوروبي: بيانات التدريب والتزامات GPAI
لا يحظر قانون الذكاء الاصطناعي الأوروبي نماذج الذكاء الاصطناعي مفتوحة المصدر لكنه يخلق متطلبات مختلفة لمزودي GPAI حسب ما إذا كانت نماذجهم مُصدرة بشكل مفتوح.
ينص القانون على أن نماذج GPAI ذات الأوزان المفتوحة المنشورة بموجب تراخيص مفتوحة المصدر تستفيد من التزامات أخف من النماذج المغلقة — لا سيما حول متطلبات الشفافية والتوثيق — ما لم يشكّل النموذج مخاطر نظامية (حوسبة التدريب فوق 10^25 عملية).
لكن: حتى نماذج GPAI مفتوحة المصدر في مستوى المخاطر النظامية يجب أن تمتثل لمجموعة الالتزامات الكاملة، بما في ذلك الفريق الأحمر والإبلاغ عن الحوادث.
موقف الصين: الانفتاح الاستراتيجي
نهج الصين تجاه الذكاء الاصطناعي مفتوح المصدر مثير للاهتمام استراتيجياً. دعمت الحكومة الصينية إصدار نماذج قوية مفتوحة — DeepSeek R1 وQwen من Alibaba وERNIE من Baidu — والنماذج الصينية تفوق الآن عدداً النماذج الأمريكية في تنزيلات النماذج مفتوحة المصدر على Hugging Face.
هذا شكل من أشكال القوة الناعمة: إذا أصبحت النماذج الصينية المفتوحة الخيار الافتراضي للمطورين عالمياً، تصبح المعايير والقيم الصينية (المُشفّرة في استجابات النماذج) والمواصفات التقنية الصينية مدمجة في تطبيقات الذكاء الاصطناعي العالمية.
إعلان
سؤال الترخيص: ما القواعد المنطبقة؟
حتى نماذج الذكاء الاصطناعي “المفتوحة” لا تُصدر عادةً بموجب تراخيص المصدر المفتوح التقليدية (مثل MIT أو Apache 2.0). تستخدم “تراخيص مجتمعية” مخصصة تتضمن سياسات استخدام مقبول تحظر:
- الاستخدام في تطوير الأسلحة
- المنتجات المنافسة التي تتجاوز حجماً معيناً
- التطبيقات التي تنتهك حقوق الإنسان
- الاستخدام من قبل كيانات على قوائم العقوبات الأمريكية
هذه القيود تُخرج النماذج فوراً من تعريف OSI لـ “المصدر المفتوح” — لكنها تخدم أغراضاً قانونية وسياسية مهمة.
الواقع العملي: من يستخدم النماذج المفتوحة ولماذا
في 2026، تُنشر نماذج الذكاء الاصطناعي المفتوحة عبر نطاق واسع من التطبيقات:
النشر المؤسسي: شركات تشغّل نماذج ذكاء اصطناعي محلياً لأمان البيانات — الرعاية الصحية والقانون والخدمات المالية — تستخدم Llama 4 وMistral وDeepSeek R1 على أجهزتها الخاصة.
الذكاء الاصطناعي السيادي: حكومات — بما فيها الحكومة الفيدرالية الأمريكية — تنشر نماذج مفتوحة لتطبيقات لا يُقبل فيها إرسال البيانات إلى واجهات برمجة تطبيقات أطراف ثالثة.
البحث الأكاديمي: جامعات حول العالم تجري أبحاث الذكاء الاصطناعي على نماذج مفتوحة بتكلفة لا تُحتمل عبر واجهات برمجة تطبيقات تجارية.
التطبيقات المضمنة: الأجهزة الطرفية وأنظمة إنترنت الأشياء (IoT) والأجهزة المتخصصة تشغّل بشكل متزايد نماذج مفتوحة مضبوطة لمهام محددة.
وصول العالم النامي: مؤسسات في بلدان ذات ميزانيات محدودة تصل إلى قدرات الذكاء الاصطناعي من خلال نماذج مفتوحة لا تستطيع تحملها عبر واجهات برمجة تطبيقات تجارية.
توصيات السياسة التي تتبلور
بعد عامين من النقاش المكثف، يتشكّل إجماع تقريبي بين باحثي الذكاء الاصطناعي وخبراء الحوكمة وصانعي السياسات:
- التصنيف حسب القدرات: يجب أن تتناسب المتطلبات التنظيمية مع قدرة النموذج، مع خضوع النماذج الأقوى لمزيد من التدقيق قبل الإصدار المفتوح
- تقييمات سلامة إلزامية: حتى النماذج المفتوحة فوق عتبات قدرة معينة يجب أن تخضع لتقييمات سلامة موحدة قبل الإصدار العام
- أطر المسؤولية: توزيع أوضح للمسؤولية عند إساءة استخدام النماذج المفتوحة
- التنسيق الدولي: نظراً لأن إصدارات النماذج المفتوحة عالمية بطبيعتها (يمكن لأي شخص التنزيل من أي مكان)، فإن تنسيق قيود الوصول وطنياً شبه مستحيل
- الاستثمار في أبحاث السلامة: بدلاً من تقييد النماذج المفتوحة، الاستثمار في أبحاث أمن الذكاء الاصطناعي الدفاعي
الخلاصة
نقاش الذكاء الاصطناعي مفتوح المصدر هو أحد الأسئلة السياسية المحددة لعصرنا — يتقاطع مع الأمن القومي والتقدم العلمي والمنافسة الاقتصادية وأسئلة جوهرية حول من يتحكم في أقوى التقنيات في تاريخ البشرية.
النتيجة لن تكون حكماً حاسماً واحداً. ستكون نتيجة تفاوض فوضوية ومختلفة في كل ولاية قضائية. ما هو واضح هو أن عصر معاملة إصدارات نماذج الذكاء الاصطناعي كقرار تجاري بحت — خالٍ من المساءلة العامة — يقترب من نهايته.
النماذج فوق عتبة قدرة معينة ستواجه تدقيقاً متزايداً قبل الإصدار، بغض النظر عما إذا كانت مفتوحة أو مغلقة. السؤال هو ما إذا كانت الأطر التنظيمية قيد التطوير متطورة بما يكفي لاستهداف المخاطر الحقيقية دون سحق الفوائد المشروعة الهائلة التي قدمها الذكاء الاصطناعي المفتوح بالفعل للعالم.
إعلان
رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الأهمية بالنسبة للجزائر | عالية — تعتمد استراتيجية الجزائر للذكاء الاصطناعي بشكل كبير على النماذج المفتوحة نظراً لعدم وجود مختبر ذكاء اصطناعي حدودي محلي. القرارات السياسية في الولايات المتحدة والاتحاد الأوروبي بشأن توفر النماذج المفتوحة ستحدد مباشرة قدرات الذكاء الاصطناعي التي يمكن للمؤسسات الجزائرية الوصول إليها. |
| جاهزية البنية التحتية؟ | جزئية — لدى الجزائر سعة متنامية لمراكز البيانات ومجموعات حوسبة جامعية، لكن تشغيل نماذج مفتوحة كبيرة (أكثر من 70 مليار معلمة) محلياً يتطلب بنية تحتية لوحدات GPU تبقى محدودة خارج مؤسسات قليلة. النماذج الأصغر المُكمّاة قابلة للنشر اليوم. |
| توفر المهارات؟ | جزئي — تنتج الجامعات الجزائرية خريجي علوم حاسوب أقوياء، ومجتمع المطورين يتفاعل بشكل متزايد مع النماذج المفتوحة عبر Hugging Face. لكن الخبرة العميقة في ضبط النماذج وتقييم السلامة والنشر واسع النطاق لا تزال في طور التطوير. |
| الجدول الزمني للعمل | 6-12 شهراً — يجب على الجزائر مراقبة تنفيذ قانون الذكاء الاصطناعي الأوروبي عن كثب (يبدأ الإنفاذ في 2026) والبدء في صياغة موقف وطني بشأن حوكمة نماذج الذكاء الاصطناعي المفتوحة قبل أن تتصلب المعايير الدولية دون مدخلات جزائرية. |
| أصحاب المصلحة الرئيسيون | وزارة الرقمنة والإحصائيات، وزارة التعليم العالي والبحث العلمي، صندوق المقاولات الناشئة الجزائري (ASF)، CERIST، مختبرات الذكاء الاصطناعي الجامعية، المطورون الجزائريون الذين يستخدمون Hugging Face ومنظومات النماذج المفتوحة |
| نوع القرار | استراتيجي — القرارات المتخذة الآن بشأن اعتماد نماذج الذكاء الاصطناعي المفتوحة وأطر الترخيص والمشاركة في منتديات الحوكمة الدولية ستشكّل سيادة الجزائر في الذكاء الاصطناعي للعقد القادم. |
خلاصة سريعة: الجزائر مستهلك صافٍ لنماذج الذكاء الاصطناعي المفتوحة، مما يجعل سياسة الذكاء الاصطناعي مفتوح المصدر العالمية ذات صلة مباشرة بالمصالح الوطنية. القيود على إصدارات النماذج المفتوحة من قبل الولايات المتحدة أو الاتحاد الأوروبي ستؤثر بشكل غير متناسب على بلدان مثل الجزائر التي تعتمد على الأوزان المفتوحة للوصول الميسور إلى الذكاء الاصطناعي. يجب على صانعي السياسات الجزائريين المشاركة بنشاط في نقاشات حوكمة الذكاء الاصطناعي الدولية للدفاع عن استمرار توفر النماذج المفتوحة مع بناء القدرات المحلية لتقييمها وضبطها ونشرها بأمان.
إعلان