في ديسمبر 2024، أعلن مجلس الذكاء الاصطناعي الجزائري المُنشأ حديثًا، بقيادة البروفيسور Merouane Debbah، عن الاستراتيجية الوطنية للذكاء الاصطناعي. تهدف خارطة الطريق ذات الستة ركائز إلى تموضع البلاد كقائد إقليمي في الذكاء الاصطناعي، وتنمية السوق من قيمة تقديرية تبلغ 498.9 مليون دولار في 2025 إلى 1.69 مليار دولار بحلول 2030، ونشر الأنظمة الذكية عبر القطاعات الحكومية والصحية والزراعية والطاقوية. لكن بعد أكثر من عام على إطلاق هذه الخارطة، ظهرت فجوة واضحة. لا تمتلك الجزائر تشريعًا خاصًا بالذكاء الاصطناعي، ولا إطارًا للمساءلة الخوارزمية، ولا سلطة معيّنة مسؤولة عن الإشراف على كيفية تأثير أنظمة الذكاء الاصطناعي على حياة ما يقارب 47 مليون مواطن.
هذا ليس مجرد إغفال بيروقراطي. إنه ثغرة هيكلية. مع انتقال الذكاء الاصطناعي من مختبرات البحث إلى القبول الجامعي والإدارة الضريبية والرعاية الصحية والخدمات العامة، فإن غياب الضوابط يخلق عواقب حقيقية لأشخاص حقيقيين. لم يعد السؤال هل تحتاج الجزائر إلى تنظيم الذكاء الاصطناعي. السؤال هو أي نوع من التنظيم تحتاجه، ومن ينبغي أن يطبقه، وكيف تُصمم قواعد تحمي المواطنين دون خنق منظومة ابتكار لا تزال في طور التشكّل.
فجوة المساءلة
أصبحت علاقة الجزائر بصنع القرار الخوارزمي موضوعًا وطنيًا في 2025، عندما نشرت وزارة التعليم العالي نظام توجيه جامعي مدعوم بالذكاء الاصطناعي على نطاق غير مسبوق. عالج النظام 340,901 حامل شهادة البكالوريا، محققًا معدل تعيين بلغ 97 بالمائة ضمن الإطار الزمني المحدد. وأفاد الوزير Kamel Baddari أن 70 بالمائة من الطلاب تم قبولهم في أحد خياراتهم الثلاثة الأولى.
تمثل هذه الأرقام إنجازًا تشغيليًا حقيقيًا. لكن نظام التوجيه الجامعي يوضح أيضًا مشكلة الحوكمة الجوهرية. لا يوجد قانون جزائري يُلزم الحكومة بالكشف عن كيفية ترجيح خوارزمية التوجيه للعوامل المختلفة. لا توجد لائحة تفرض تقييمات الأثر قبل نشر نظام ذكاء اصطناعي في خدمة عامة. لا يوجد إطار يحدد من يتحمل المسؤولية عندما تنتج خوارزمية نتائج تمييزية أو خاطئة. الطلاب والعائلات الذين يعترضون على تعييناتهم ليس لديهم آلية لفهم المنطق الخوارزمي وراء القرارات التي تشكل مستقبلهم.
تمتد هذه الفجوة إلى ما وراء التعليم. تعمل المديرية العامة للضرائب على تحديث أنظمة الامتثال بأدوات رقمية، بما في ذلك منصة التصريح الإلكتروني Jibayatic والنشر التدريجي للفوترة الإلكترونية المخطط حتى 2026. تستكشف البنوك والمؤسسات المالية كشف الاحتيال بمساعدة الذكاء الاصطناعي. يبدأ قطاع الصحة في الجزائر باستكشاف التشخيص بمساعدة الذكاء الاصطناعي، مدعومًا بمركز الحوسبة الفائقة للذكاء الاصطناعي المُنشأ في وهران في مارس 2025، والمجهز بمجموعات GPU لأحمال عمل الذكاء الاصطناعي الموجهة للباحثين والشركات الناشئة والأوساط الأكاديمية.
في كل حالة، يتم نشر أو تطوير أنظمة ضمن أُطر قانونية صُممت لصانعي قرار بشريين، وليس لخوارزميات احتمالية قادرة على معالجة ملايين نقاط البيانات وإنتاج مخرجات لا يفهمها أي إنسان بالكامل. المشكلة ليست أن هذه النشرات خطيرة بطبيعتها. معظمها جهود حسنة النية لتحسين الكفاءة وجودة الخدمة. المشكلة أنه بدون أُطر حوكمة محددة، لا توجد آلية للتحقق من أنها تعمل كما هو مقصود، ولا التزام باختبار التحيز، ولا سبيل للتعويض عند فشلها.
ما يتعلمه العالم
الجزائر ليست وحدها في مواجهة هذه الأسئلة. كل دولة تنشر الذكاء الاصطناعي على نطاق واسع تواجه نفس التوتر الجوهري بين تشجيع الابتكار وحماية المواطنين من الأضرار الخوارزمية. لكن عدة ولايات قضائية تحركت بشكل حاسم، مقدمةً دروسًا يمكن للجزائر تكييفها بدلاً من ابتكارها من الصفر.
قانون الذكاء الاصطناعي الأوروبي: التصنيف على أساس المخاطر
يمثل AI Act الصادر عن الاتحاد الأوروبي، الذي دخل حيز التنفيذ في 1 أغسطس 2024، أشمل محاولة لتنظيم الذكاء الاصطناعي في العالم. هيكله الأساسي هو نظام تصنيف قائم على المخاطر يُصنف تطبيقات الذكاء الاصطناعي في مستويات ذات متطلبات تنظيمية مختلفة.
التطبيقات ذات المخاطر غير المقبولة محظورة تمامًا. تشمل أنظمة التقييم الاجتماعي التي تقيّم المواطنين بناءً على أنماط سلوكية، والمراقبة البيومترية في الوقت الحقيقي في الأماكن العامة (مع استثناءات ضيقة لأجهزة إنفاذ القانون)، والذكاء الاصطناعي الذي يتلاعب بالفئات الضعيفة. دخلت المحظورات حيز التنفيذ في 2 فبراير 2025. التطبيقات ذات المخاطر الدنيا، مثل مرشحات البريد العشوائي وألعاب الفيديو المدعومة بالذكاء الاصطناعي، لا تخضع لأي متطلبات خاصة.
يستهدف الجزء الأكبر من الجهاز التنظيمي التطبيقات عالية المخاطر: الذكاء الاصطناعي المستخدم في قرارات التوظيف، وتقييم الائتمان، والتوجيه التعليمي، وإنفاذ القانون، ومعالجة الهجرة، وإدارة البنية التحتية الحيوية. يجب أن تخضع هذه الأنظمة لتقييمات المطابقة، والحفاظ على وثائق تقنية مفصلة، وتنفيذ آليات رقابة بشرية، والخضوع لمراقبة مستمرة. تدخل أحكام التطبيقات عالية المخاطر حيز التنفيذ الكامل في أغسطس 2026، مع فئات إضافية تتبع في أغسطس 2027.
النهج الأوروبي ذو صلة خاصة بالجزائر لأن العديد من تطبيقات الذكاء الاصطناعي التي تنشرها الوكالات الحكومية الجزائرية تقع مباشرة في فئة المخاطر العالية وفق تعريفات الاتحاد الأوروبي. خوارزمية القبول الجامعي وأدوات الامتثال الضريبي وأنظمة التشخيص الصحي ستخضع جميعها لمتطلبات صارمة بموجب AI Act. يتضمن القانون أيضًا أحكام بيئات اختبار تنظيمية تسمح للمبتكرين باختبار أنظمتهم في ظروف خاضعة للإشراف — نموذج يمكن للجزائر تكييفه.
دول الخليج: الحوكمة لخدمة الابتكار
اتخذت الإمارات العربية المتحدة والمملكة العربية السعودية نهجين مختلفين بشكل ملحوظ. في أكتوبر 2017، عيّنت الإمارات Omar Al Olama أول وزير دولة للذكاء الاصطناعي في العالم، مؤشرة إلى أن حوكمة الذكاء الاصطناعي تستحق اهتمامًا على مستوى مجلس الوزراء. تركز الاستراتيجية الوطنية للذكاء الاصطناعي 2031 الإماراتية على ترسيخ البلاد كمركز عالمي للذكاء الاصطناعي، مع تموضع الحوكمة كعامل تمكين للابتكار وليس قيدًا عليه. في يونيو 2024، أصدرت الإمارات ميثاقها لتطوير واستخدام الذكاء الاصطناعي، متضمنًا 12 مبدأً أخلاقيًا تشمل السلامة، وتخفيف التحيز الخوارزمي، والشفافية، والرقابة البشرية، والمساءلة.
كان نظام بيئات الاختبار التنظيمية في الإمارات فعالاً بشكل خاص. منصات مثل RegLab التابعة لسوق أبوظبي العالمي وFinTech Hive التابعة لمركز دبي المالي العالمي تسمح للشركات الناشئة باختبار منتجات مدعومة بالذكاء الاصطناعي تحت إشراف تنظيمي. جمعت شركات Hub71 الناشئة في أبوظبي 2.17 مليار دولار في 2024، بزيادة 44.7 بالمائة مقارنة بـ2023، مما يدل على أن الدعم المنظم للابتكار يمكن أن يتعايش مع أطر الحوكمة.
يجمع نهج المملكة العربية السعودية من خلال SDAIA (هيئة البيانات والذكاء الاصطناعي السعودية)، المُنشأة في 2019، بين السلطة التنظيمية والتفويض الترويجي. تشرف SDAIA على حوكمة واعتماد الذكاء الاصطناعي معًا وفق ستة ركائز استراتيجية: الطموح، والكفاءات، والسياسات، والاستثمار، والابتكار، وتطوير المنظومة. خصصت المملكة 2026 بوصفها “عام الذكاء الاصطناعي” وتُجري استشارات حول مشروع قانون لمركز عالمي للذكاء الاصطناعي. رغم أن المملكة لا تملك بعد قانونًا مستقلاً خاصًا بالذكاء الاصطناعي، فإن النموذج المتكامل حيث يكون المنظم هو أيضًا المروّج أثبت فعاليته في تسريع النشر. لكنه يثير تساؤلات حول الاستحواذ التنظيمي، حيث تكون الجهة المسؤولة عن فحص أضرار الذكاء الاصطناعي هي نفس الجهة التي تُقيّم بمؤشرات اعتماد الذكاء الاصطناعي.
المغرب: Digital X.0 ووكالة وطنية للذكاء الاصطناعي
على مستوى أقرب، تقدم المغرب بشكل أكثر جرأة من كثير من نظرائه في شمال أفريقيا. في أبريل 2024، قدم المغرب مشروع قانون لإنشاء وكالة وطنية لحوكمة الذكاء الاصطناعي مخوّلة بإجراء عمليات تدقيق تقنية للخوارزميات، وإدارة سجل لأنظمة الذكاء الاصطناعي عالية المخاطر، والتنسيق مع المنظمين القطاعيين في المالية والصحة والاتصالات. في 2025، أقرّ المغرب قانونه الإطاري Digital X.0، أول تشريع في البلاد يدمج رسميًا الذكاء الاصطناعي في الحوكمة الإدارية والاقتصادية، مؤسسًا قواعد للشفافية والمساءلة والاستخدام الأخلاقي للخوارزميات. يتضمن القانون متطلبات أساسية لتقييم المخاطر وحقوق المراجعة البشرية عندما تؤثر القرارات الآلية على الأفراد.
تواصل اللجنة الوطنية لمراقبة حماية المعطيات ذات الطابع الشخصي (CNDP) في المغرب الإشراف على الجوانب المتعلقة بالبيانات للذكاء الاصطناعي بموجب القانون 09-08. مسار المغرب مُفيد للجزائر لأن كلا البلدين يتشاركان نقاط انطلاق تنظيمية متشابهة: قوانين حماية بيانات قائمة سبقت الذكاء الاصطناعي، واستخدام حكومي متزايد للأنظمة الخوارزمية، ورغبة في جذب الاستثمار التكنولوجي دون التحول إلى منطقة خالية من التنظيم تُقوّض ثقة الجمهور. لكن المغرب تقدم أسرع على الصعيدين المؤسسي والتشريعي.
ما تحتاجه الجزائر
يتطلب بناء إطار حوكمة للذكاء الاصطناعي في الجزائر معالجة واقع هيكلي محدد يجعل نسخ المقاربات من أوروبا أو الخليج غير ملائم. تمتلك الجزائر قطاعًا عامًا واسعًا يُعد المنشئ الرئيسي لأنظمة الذكاء الاصطناعي ذات العواقب المهمة، ومنظومة تقنية خاصة ناشئة تحتاج إلى وضوح تنظيمي لجذب الاستثمارات، وسكانًا متصلين رقميًا بشكل متزايد لكن بآليات محدودة للطعن في القرارات الآلية.
نظام تصنيف قائم على المخاطر
ينبغي للجزائر اعتماد نهج قائم على المخاطر مماثل في هيكله للنموذج الأوروبي لكن مُعايرًا وفق الأولويات والقدرة المؤسسية المحلية. ليست كل أنظمة الذكاء الاصطناعي بحاجة إلى نفس مستوى الرقابة. روبوت محادثة يجيب على أسئلة سياحية حول تلمسان لا يطرح نفس المخاطر التي تطرحها خوارزمية تحدد أي الطلاب يلتحقون بكلية الطب.
ينبغي أن يعترف التصنيف بثلاثة مستويات على الأقل. الأنظمة عالية المخاطر تشمل أي ذكاء اصطناعي تستخدمه الوكالات الحكومية لقرارات تؤثر على الحقوق الفردية (التوجيه التعليمي، تحديد الإعانات، إنفاذ القانون)، والذكاء الاصطناعي في التشخيص الصحي والتوصيات العلاجية، والذكاء الاصطناعي في الخدمات المالية لقرارات الائتمان والتأمين، والذكاء الاصطناعي الذي يتحكم في البنية التحتية الحيوية (إدارة شبكة الكهرباء، معالجة المياه).
الأنظمة متوسطة المخاطر تشمل الذكاء الاصطناعي التجاري ذا التأثير الكبير على المستهلكين، بما في ذلك خوارزميات التوظيف وأنظمة الإعلان المستهدف ومحركات التوصية بالمحتوى. الأنظمة منخفضة المخاطر، التي تغطي معظم تطبيقات الذكاء الاصطناعي الاستهلاكية والأدوات التجارية الداخلية، لن تخضع إلا لمتطلبات شفافية أساسية.
متطلبات الشفافية والقابلية للتفسير
بالنسبة للأنظمة عالية المخاطر، ينبغي للجزائر فرض شفافية ذات معنى. يعني ذلك إلزام الوكالات الحكومية بنشر تقييمات الأثر قبل نشر الذكاء الاصطناعي في الخدمات العامة، والكشف عن المنطق العام لصنع القرار الخوارزمي (ليس الشفرة المصدرية المحمية، بل العوامل المأخوذة بعين الاعتبار ووزنها النسبي)، وتقديم تفسيرات فردية عندما يساهم نظام ذكاء اصطناعي في قرار يؤثر على شخص محدد، والحفاظ على سجلات عامة لأنظمة الذكاء الاصطناعي المستخدمة في صنع القرار الحكومي.
سيكون نظام التوجيه الجامعي مرشحًا طبيعيًا أولاً لهذه المتطلبات. نشر العوامل التي تأخذها الخوارزمية بعين الاعتبار، وكيف ترجّح التفضيلات المتنافسة، وشكل نتائجها التاريخية حسب المنطقة والجنس والوضع الاجتماعي والاقتصادي سيعالج المخاوف المشروعة للجمهور مع تحسين النظام فعليًا من خلال التدقيق الخارجي. عندما تتم معالجة 340,901 طالب بواسطة خوارزمية كل عام، فإن للجمهور الحق في فهم المنطق الذي يشكل مستقبلهم.
التدقيق الخوارزمي
الشفافية وحدها غير كافية بدون التحقق. تحتاج الجزائر إلى تطوير قدرات التدقيق الخوارزمي، سواء داخل الحكومة أو من خلال مدققين معتمدين من أطراف ثالثة قادرين على فحص أنظمة الذكاء الاصطناعي من حيث التحيز والدقة والامتثال للأهداف المعلنة.
لا يتطلب هذا أن تبني الجزائر بيروقراطية ضخمة جديدة بين عشية وضحاها. المقاربة العملية تبدأ بالتقييمات الذاتية الإلزامية لأنظمة الذكاء الاصطناعي الحكومية عالية المخاطر، وتطوير معايير التدقيق بالشراكة مع الجامعات (تضم الجزائر 57,702 طالب مسجلين في 74 برنامج ماستر في الذكاء الاصطناعي عبر 52 جامعة، مما يوفر قاعدة مواهب كبيرة)، وتدريب مجموعة صغيرة من المدققين الحكوميين القادرين على التحقق من التقييمات الذاتية وإجراء عمليات تدقيق موجهة، والتوسع تدريجيًا نحو التدقيق الإلزامي من أطراف ثالثة للأنظمة الأعلى خطورة.
مراقبة التحيز ومتطلبات العدالة
التنوع اللغوي في الجزائر (العربية والأمازيغية والفرنسية)، والتفاوتات الاقتصادية الإقليمية بين ولايات الشمال والجنوب، والفجوة بين الحضر والريف تخلق مخاطر تحيز محددة لا تعالجها أطر حوكمة الذكاء الاصطناعي العامة. نظام ذكاء اصطناعي مُدرَّب بشكل أساسي على بيانات من الجزائر العاصمة قد يؤدي أداءً ضعيفًا لمستخدمي أدرار أو بشار. نظام معالجة لغة طبيعية يعمل جيدًا بالعربية الفصحى الحديثة قد يفشل مع متحدثي الدارجة الجزائرية. تواجه الجزائر أيضًا فجوة في الاتصال، حيث يتأثر 27.1 بالمائة من السكان بمشاكل الاتصال ويبقى نحو 10.4 مليون شخص غير متصلين.
ينبغي أن يتطلب إطار الحوكمة اختبار أنظمة الذكاء الاصطناعي عالية المخاطر لتفاوتات الأداء عبر مناطق الجزائر ولغاتها وفئاتها الديموغرافية. عند اكتشاف تفاوتات كبيرة، يجب على مشغلي الأنظمة إما معالجة التحيز أو الإفصاح بوضوح عن القيود وتوفير بدائل غير مبنية على الذكاء الاصطناعي.
البناء على أساس حماية البيانات المعزز
تتطلب حوكمة فعالة للذكاء الاصطناعي أساسًا متينًا لحماية البيانات. قدم القانون الجزائري الأصلي 18-07 بشأن حماية البيانات الشخصية، الصادر في 2018، نقطة انطلاق. في يوليو 2025، عززت الجزائر هذا الأساس بشكل كبير بالقانون 11-25، الذي حدّث الإطار بإدخال متطلبات لمسؤولي حماية البيانات، وتقييمات إلزامية لأثر حماية البيانات، ونافذة إخطار بالخروقات مدتها خمسة أيام، وتعريفات موسعة تشمل البيانات البيومترية والتنميط، وصلاحيات معززة للسلطة الوطنية لحماية المعطيات ذات الطابع الشخصي (ANPDP).
يمثل القانون 11-25 تقدمًا ملموسًا نحو معايير اللائحة العامة لحماية البيانات (GDPR)، لكنه صُمم لحماية البيانات وليس لحوكمة الذكاء الاصطناعي تحديدًا. ينبغي توسيع الإطار ليشمل الحق في الحصول على معلومات ذات معنى حول صنع القرار الخوارزمي، والحق في الطعن بالقرارات الآلية والحصول على مراجعة بشرية، ومتطلبات محددة لتقليل البيانات في مجموعات بيانات تدريب الذكاء الاصطناعي، وقواعد واضحة حول تحديد الغرض للبيانات التي جُمعت أصلاً لغرض واحد لكن تُستخدم لتدريب أنظمة الذكاء الاصطناعي.
من ينبغي أن يقود؟
السؤال المؤسسي بنفس أهمية السؤال الموضوعي. تفتقر الجزائر حاليًا إلى سلطة مخصصة لحوكمة الذكاء الاصطناعي، ولسؤال أي وزارة أو وكالة ينبغي أن تقود عواقب حقيقية على كيفية تطور التنظيم.
وزارة الاقتصاد الرقمي والمؤسسات الناشئة
وزارة اقتصاد المعرفة والمؤسسات الناشئة والمؤسسات المصغرة (التي أُعيد هيكلتها عدة مرات في السنوات الأخيرة) هي المقر الطبيعي لحوكمة ذكاء اصطناعي موجهة نحو الابتكار. تفهم المنظومة التقنية، وتربطها علاقات بالشركات الناشئة والشركات الرقمية، ويمكنها معايرة التنظيم لتجنب سحق صناعة ناشئة. المخاطرة هي أن وزارة ابتكار قد تعطي الأولوية للترويج على حساب الحماية.
السلطة الوطنية لحماية المعطيات ذات الطابع الشخصي (ANPDP)
السلطة الوطنية لحماية المعطيات ذات الطابع الشخصي، المعززة بشكل كبير بموجب القانون 11-25، تمتلك تفويض حماية الخصوصية والحقوق الذي تتطلبه حوكمة الذكاء الاصطناعي. هي مهيكلة كسلطة مستقلة، مما يعزلها عن الضغوط السياسية لتفضيل الأهداف الاقتصادية على حماية المواطنين. تقترح الاستراتيجية الوطنية للذكاء الاصطناعي صراحةً توسيع دور ANPDP في الإشراف على حماية البيانات وتطبيق تنظيمات الذكاء الاصطناعي. لكن ANPDP قد تفتقر إلى القدرة التقنية لفهم أنظمة الذكاء الاصطناعي المعقدة، وقد يكون تفويضها أضيق من أن يشمل أضرار الذكاء الاصطناعي التي تتجاوز خصوصية البيانات.
نموذج هجين
المقاربة الأكثر عملية للجزائر ستكون نموذجًا هجينًا. ينبغي أن تتولى ANPDP بُعد حماية الحقوق (الشفافية، القابلية للتفسير، عدم التمييز، سبل الانتصاف الفردية). ينبغي أن تتولى وزارة الاقتصاد الرقمي بُعد تمكين الابتكار (بيئات الاختبار التنظيمية، تطوير المعايير، التنسيق الدولي). وينبغي أن توفر لجنة تنسيق وزارية مشتركة للذكاء الاصطناعي، يرتكز عملها على مجلس الذكاء الاصطناعي بقيادة البروفيسور Debbah، التوجيه الاستراتيجي وحل مسائل الاختصاص.
يعكس هذا المقاربة الناشئة في عدة دول وجدت أن نماذج السلطة الواحدة إما جامدة للغاية أو خاضعة لأولويات وزارتها الأم.
إعلان
التأثير على المنظومة التقنية الجزائرية
أي نقاش حول تنظيم الذكاء الاصطناعي في الجزائر يجب أن يعالج مخاوف مشروعة من مجتمع الشركات الناشئة: هل سيقتل التنظيم الابتكار قبل أن تتاح له فرصة الازدهار؟ المنظومة التقنية الجزائرية فتية. صُنفت البلاد في المرتبة 120 من أصل 193 دولة في الجاهزية للذكاء الاصطناعي في دراسة Oxford Insights. يُعدّ عدد الشركات الناشئة المتخصصة في الذكاء الاصطناعي بالعشرات وليس المئات. فرض أعباء تنظيمية ثقيلة قد يدفع الشركات نحو ولايات قضائية أكثر تساهلاً أو يمنعها من التأسيس.
هذا القلق مشروع لكن يمكن إدارته بالتصميم الصحيح. الوضوح التنظيمي يمكن أن يجذب الاستثمار فعلاً بإعطاء الشركات والمستثمرين قواعد واضحة للتخطيط، بدلاً من تركهم يتكهنون بالقيود المستقبلية. المفتاح هو التناسب: الشركات الصغيرة والتطبيقات منخفضة المخاطر ينبغي أن تواجه متطلبات أخف من المنصات الكبيرة والأنظمة الحكومية عالية المخاطر.
بيئات الاختبار التنظيمية
ينبغي للجزائر إنشاء بيئات اختبار تنظيمية تسمح لشركات الذكاء الاصطناعي الناشئة باختبار تطبيقات مبتكرة بمتطلبات تنظيمية مخففة لفترة محددة، مع توجيه تنظيمي بدلاً من الإنفاذ. يتضمن AI Act الأوروبي نفسه أحكام بيئات اختبار، وكانت منظومة بيئات الاختبار الإماراتية أساسية في جذب شركات الذكاء الاصطناعي إلى أبوظبي ودبي.
يمكن لبيئة اختبار جزائرية عملية أن تُبنى على المنظومة الحالية لدعم الشركات الناشئة، التي تشمل الصندوق الجزائري للشركات الناشئة (ASF)، وصندوقًا مخصصًا بقيمة 1.5 مليار دينار جزائري (11 مليون دولار) من Algerie Telecom للشركات الناشئة في الذكاء الاصطناعي والأمن السيبراني والروبوتيك أُطلق في فبراير 2025، والهدف الرئاسي المتمثل في 20,000 شركة ناشئة جديدة. ستحصل شركات الذكاء الاصطناعي الناشئة المقبولة في بيئة الاختبار على إعفاءات مؤقتة من بعض متطلبات الإبلاغ، والوصول إلى بيانات حكومية مجهولة الهوية للتدريب والاختبار، وتوجيه من المنظمين لدمج الامتثال في المنتجات منذ البداية، وفترة سماح من 12 إلى 24 شهرًا قبل تطبيق المتطلبات التنظيمية الكاملة.
مبدأ التناسب
ينبغي أن يتضمن الإطار التنظيمي صراحةً مبدأ التناسب. شركات الذكاء الاصطناعي الصغيرة والتطبيقات منخفضة المخاطر ينبغي أن تواجه متطلبات أخف من المنصات الكبيرة والأنظمة الحكومية عالية المخاطر. ينبغي أن تكون تكاليف الامتثال متناسبة مع حجم الشركة ومستوى مخاطر تطبيقاتها للذكاء الاصطناعي. هذا يمنع نمط الإخفاق الشائع حيث يمنع التنظيم المُصمم للشركات الكبيرة الشركات الصغيرة عن غير قصد من دخول السوق.
التنسيق الدولي
لا يوجد إطار حوكمة الذكاء الاصطناعي في الجزائر بمعزل عن العالم. التنسيق الدولي ضروري لعدة أسباب.
أولاً، معظم أنظمة الذكاء الاصطناعي المنشورة في الجزائر مُطوّرة في أماكن أخرى. منتجات Google للذكاء الاصطناعي وخوارزميات Meta ومنصات الذكاء الاصطناعي الصينية تعمل عبر الحدود. تتطلب الحوكمة الفعالة القدرة على محاسبة مقدمي الذكاء الاصطناعي الأجانب، وهو أسهل عندما يكون الإطار الجزائري متوافقًا مع المعايير الدولية.
ثانيًا، يتطلب طموح الجزائر في تصدير منتجات وخدمات الذكاء الاصطناعي توافقًا تنظيميًا. شركات الذكاء الاصطناعي الجزائرية التي تبني منتجات متوافقة مع المعايير المعترف بها دوليًا ستجد دخول الأسواق العالمية أسهل، خاصةً الاتحاد الأوروبي الذي يُعد أكبر شريك تجاري للجزائر وحيث يصبح AI Act معيارًا عالميًا فعليًا.
ثالثًا، يتسارع التنسيق الإقليمي الأفريقي. وافق الاتحاد الأفريقي على استراتيجيته القارية للذكاء الاصطناعي في يوليو 2024، مع تركيز المرحلة الأولى (2025-2026) تحديدًا على أطر الحوكمة والاستراتيجيات الوطنية وبناء القدرات. توفر مشاركة الجزائر في مبادرات الحوكمة الرقمية للاتحاد الأفريقي منصة طبيعية لتنسيق المقاربات عبر القارة. تجعل الخطوات التشريعية الأخيرة للمغرب التنسيق في شمال أفريقيا ممكنًا ومهمًا استراتيجيًا.
تكلفة التقاعس
إغراء تأخير تنظيم الذكاء الاصطناعي مفهوم. بناء أطر الحوكمة معقد ومثير للجدل وكثيف الموارد. لكن تكلفة التقاعس تنمو مع كل نظام ذكاء اصطناعي يُنشر بدون رقابة.
كل عام تعمل فيه خوارزمية التوجيه الجامعي بدون متطلبات شفافية، تستمر التساؤلات حول العدالة. كل نشر للذكاء الاصطناعي في الصحة بدون اختبار التحيز يعرّض المرضى للخطر. كل استخدام للذكاء الاصطناعي في الإدارة العامة بدون آليات مساءلة يخاطر بتآكل الثقة التي يحتاجها التحول الرقمي للنجاح. وكل عام بدون وضوح تنظيمي، تواجه الشركات الناشئة الجزائرية عدم يقين يُبطئ النمو ويثني المستثمرين المؤسسيين.
التجربة الدولية تُظهر باستمرار أن الدول التي تُنشئ أطر حوكمة واضحة تجذب استثمارات أكثر جدية في الذكاء الاصطناعي من تلك التي تعمل في فراغات تنظيمية. عدم اليقين، وليس التنظيم، هو ما يردع الشركات المسؤولة ورأس المال المؤسسي.
توصيات للعمل الفوري
لا تحتاج الجزائر إلى حل كل أسئلة حوكمة الذكاء الاصطناعي في وقت واحد. لكن عدة إجراءات يمكن ويجب أن تبدأ فورًا.
أولاً، ينبغي للحكومة إضفاء الطابع الرسمي على تفويض الحوكمة لمجلس الذكاء الاصطناعي وإنشاء مجموعة عمل وزارية مشتركة حول تنظيم الذكاء الاصطناعي، تضم ممثلين عن وزارة الاقتصاد الرقمي والعدالة والتعليم العالي والصحة وANPDP. ينبغي تكليف هذه المجموعة بإنتاج مسودة إطار حوكمة للذكاء الاصطناعي في غضون 12 شهرًا.
ثانيًا، ينبغي لوزارة التعليم العالي نشر منهجية خوارزمية التوجيه الجامعي كعرض للشفافية الخوارزمية. مع معالجة 340,901 طالب سنويًا، سيبني ذلك ثقة الجمهور ويُرسي سابقة للوكالات الحكومية الأخرى.
ثالثًا، ينبغي للجزائر الانخراط بنشاط مع مرصد سياسات الذكاء الاصطناعي التابع لمنظمة التعاون والتنمية الاقتصادية والسعي للعضوية في الشراكة العالمية حول الذكاء الاصطناعي (GPAI)، التي تضم حاليًا 44 دولة عضوًا. سيوفر ذلك الوصول إلى أفضل الممارسات والمساعدة التقنية لتطوير أطر الحوكمة.
رابعًا، ينبغي للحكومة أن تطلب فورًا تقييمات أثر لأي نظام ذكاء اصطناعي جديد يُنشر في الخدمات العامة، حتى قبل سن تشريع شامل. يمكن القيام بذلك عبر توجيه وزاري ولا يتطلب تشريعًا جديدًا.
خامسًا، ينبغي تمويل الجامعات الجزائرية — بـ57,702 طالب في 74 برنامج ماستر في الذكاء الاصطناعي — لتطوير مناهج وبرامج بحثية في تدقيق الذكاء الاصطناعي، بناءً لرأس المال البشري اللازم لتنفيذ أي إطار حوكمة يظهر.
نافذة الحوكمة الاستباقية تضيق. نشر الذكاء الاصطناعي في الجزائر يتسارع. الخيار بين تصميم قواعد اللعبة الآن أو معالجة الحوادث الخوارزمية لاحقًا.
الأسئلة الشائعة
هل تمتلك الجزائر حاليًا قوانين خاصة بالذكاء الاصطناعي؟
لا. حتى مارس 2026، لا تمتلك الجزائر تشريعًا يعالج تحديدًا الذكاء الاصطناعي. تخضع أنظمة الذكاء الاصطناعي لقانون حماية البيانات الشخصية لعام 2018 (القانون 18-07) المُعدّل بالقانون 11-25 في يوليو 2025، واللوائح القطاعية، والمبادئ الدستورية. تحدد الاستراتيجية الوطنية للذكاء الاصطناعي المُعلنة في ديسمبر 2024 الحوكمة كأولوية وتقترح توسيع دور ANPDP في تطبيق تنظيمات الذكاء الاصطناعي، لكن هذا لم يُفضِ بعد إلى تشريع محدد.
كيف يؤثر قانون الذكاء الاصطناعي الأوروبي على الجزائر؟
لا ينطبق AI Act مباشرة على الجزائر، لكن له آثار غير مباشرة كبيرة. يجب على الشركات الجزائرية المُصدّرة إلى أوروبا الامتثال لمتطلباته. قد تتبنى الفروع الجزائرية للشركات الأوروبية معايير الاتحاد الأوروبي عالميًا. يصبح القانون معيارًا عالميًا فعليًا تستشهد به العديد من الدول عند تطوير أُطرها الخاصة، والاتحاد الأوروبي هو أكبر شريك تجاري للجزائر.
هل سيضر تنظيم الذكاء الاصطناعي بمنظومة الشركات الناشئة الجزائرية؟
التنظيم المتناسب والمُصمم جيدًا يمكن أن يساعد فعلاً منظومات الشركات الناشئة بتوفير وضوح تنظيمي وتعزيز ثقة المستهلكين وخلق طلب على أدوات وخدمات الامتثال. المفتاح هو التناسب: الشركات الصغيرة والتطبيقات منخفضة المخاطر ينبغي أن تواجه متطلبات أخف. بيئات الاختبار التنظيمية، كتلك الناجحة في الإمارات، يمكن أن توفر حماية إضافية للابتكار في مراحله الأولى. تمتلك الجزائر بالفعل بنية تحتية لدعم الشركات الناشئة، بما في ذلك صندوق Algerie Telecom للذكاء الاصطناعي بقيمة 11 مليون دولار والصندوق الجزائري للشركات الناشئة، التي يمكن أن تدمج برامج بيئات الاختبار.
المصادر والقراءات الإضافية
- Algeria’s National AI Strategy — Digital Policy Alert
- Why Algeria Is Positioned to Become North Africa’s AI Leader — New Lines Institute
- EU AI Act — European Commission Digital Strategy
- Algeria Data Protection Law 18-07 and Amendments — CookieYes
- Morocco Digital X.0 Law — AI Governance and Digital Sovereignty
- African Union Continental AI Strategy (July 2024)
- UAE National AI Strategy 2031 — AI Office
- SDAIA Saudi Arabia — AI Governance Framework
- Algeria Deploys AI for University Placements — APA News
- Global Partnership on Artificial Intelligence (GPAI) — OECD















