المرآة GDPR: لماذا يسري 2 أغسطس 2026 على الشركات الجزائرية
EU AI Act (اللائحة 2024/1689) ليس قانوناً أوروبياً حصرياً. كـ GDPR الذي سبقه، تتبع رقعته الجغرافية المستخدمَ لا المقرَّ الرسمي للمزوّد. تنص المادة 2 من اللائحة على أنها تسري على أي مزوّد يضع أنظمة الذكاء الاصطناعي “في سوق الاتحاد” أو تُستخدَم مخرجاتها “في الاتحاد” — بصرف النظر عن موقع تأسيس الشركة أو خوادمها.
بالنسبة لشركات SaaS الجزائرية، هذه هي البند الحاسم. إذا كان منتجك يتضمن ميزة ذكاء اصطناعي يصل إليها عدد من العملاء في دول الاتحاد الأوروبي — سواء في فرنسا أو ألمانيا أو إسبانيا أو إيطاليا — وكانت تلك الميزة تندرج ضمن إحدى الفئات عالية المخاطر المحددة في الملحق III، فأنت في نطاق التطبيق. هذا ليس خطراً مستقبلياً للمراقبة. تاريخ تطبيق 2 أغسطس 2026 لالتزامات الملحق III بات على بعد 95 يوماً تقريباً وفق الجدول الزمني الرسمي لتطبيق EU AI Act.
تشمل فئات الملحق III عالية المخاطر أنظمة الذكاء الاصطناعي المستخدمة في: التعرف البيومتري؛ إدارة البنية التحتية الحيوية؛ التعليم والتدريب المهني؛ التوظيف وإدارة العمال؛ الوصول إلى الخدمات الأساسية (بما فيها تقييم الائتمان والتأمين)؛ إنفاذ القانون؛ مراقبة الهجرة والحدود؛ وإدارة العدالة. كثير من شركات SaaS الجزائرية العاملة في HR-tech وfintech وedtech والأدوات الحكومية متأثرة مباشرةً.
ما يعنيه “عالي المخاطر” عملياً للمؤسسين الجزائريين
ليست كل ميزة ذكاء اصطناعي عالية المخاطر. يستخدم القانون إطار تصنيف تبقى بموجبه معظم ميزات الذكاء الاصطناعي العامة (محركات التوصية، البحث، لوحات التحليل) في مستويات مخاطر أدنى. الالتزامات الملزمة الواجبة في أغسطس 2026 تستهدف الأنظمة المدرجة في الملحق III حيث يتخذ الذكاء الاصطناعي أو يؤثر بشكل جوهري في قرارات ذات عواقب تمس الأشخاص.
يبدو التحقق من المخاطر لمصدّر SaaS جزائري نموذجي كالتالي: منصة HR-tech تستخدم نموذج ذكاء اصطناعي لتصنيف المتقدمين للوظائف أو تقييم أداء الموظفين تندرج ضمن “التوظيف وإدارة العمال” (الملحق III، البند 4) — عالية المخاطر. شركة fintech تقدم تقييم ائتماني أو تأميني مدعوماً بالذكاء الاصطناعي تندرج ضمن “الوصول إلى الخدمات الأساسية” (البند 5) — عالية المخاطر. شركة edtech تستخدم الذكاء الاصطناعي لتحديد تقدم الطلاب أو نتائج التقييم تندرج ضمن “التعليم والتدريب المهني” (البند 3) — عالية المخاطر.
تشمل الالتزامات عالية المخاطر: إتمام تقييم المطابقة؛ الحفاظ على الوثائق التقنية؛ تسجيل النظام في قاعدة بيانات EU AI Act الرسمية؛ تعيين ممثل معتمد في الاتحاد الأوروبي (إلزامي للمزودين خارج الاتحاد)؛ تطبيق آليات الإشراف البشري؛ والاحتفاظ بالسجلات لستة أشهر على الأقل. تصل الغرامات للمخالفة إلى 15 مليون يورو أو 3% من إجمالي الإيرادات السنوية العالمية.
إعلان
خطة الامتثال في ست خطوات للفرق الجزائرية
1. رسم خريطة كل ميزة ذكاء اصطناعي وتصنيفها حسب مستوى المخاطر
الأولوية الأولى هي الجرد لا التوثيق. أنشئ قائمة شاملة بكل ميزة ذكاء اصطناعي تعرضها لمستخدميك في الاتحاد الأوروبي: نماذج التصنيف، محركات التوصية، مخرجات القرار الآلي، أنظمة التسجيل، وروبوتات الدردشة ذات المخرجات ذات العواقب. قيّم لكل ميزة ما إذا كانت تتوافق مع فئة من الملحق III. تشمل هذا التقييم بشكل صريح ميزات الذكاء الاصطناعي التي يتم الوصول إليها عبر APIs خارجية.
2. توضيح دورك: مزوّد أم مُشغِّل أم كلاهما
يُخصص القانون التزامات مختلفة لـ”المزودين” (الشركات التي تطور أنظمة ذكاء اصطناعي أو تضعها في السوق) و”المشغّلين” (الشركات التي تستخدم أنظمة ذكاء اصطناعي في عملياتها الخاصة). معظم مصدّري SaaS الجزائريين هم مزودون. معرفة دورك تحدد قائمة الامتثال الخاصة بك.
3. إنجاز الوثائق التقنية وتقييم المطابقة
لكل نظام عالي المخاطر، يجب أن تنتج وثائق تقنية تغطي: الغرض وحالات الاستخدام؛ التصميم التقني والبنية المعمارية؛ مصادر بيانات التدريب وممارسات الحوكمة؛ مقاييس الأداء بما تشمل نتائج اختبارات الدقة والصلابة والتحيز؛ القيود المعروفة؛ وآليات الإشراف البشري المعتمدة.
4. تعيين ممثل معتمد في الاتحاد الأوروبي
يُلزَم المزودون خارج الاتحاد الأوروبي لأنظمة الذكاء الاصطناعي عالية المخاطر بتعيين ممثل قانوني مقيم في دولة عضو في الاتحاد الأوروبي. يتصرف هذا الممثل بوصفه نقطة اتصال مع السلطات الوطنية المختصة ويتحمل المسؤولية الرسمية عن الامتثال نيابةً عنك. تتوفر خدمات التمثيل من مكاتب محاماة وشركات استشارية متخصصة في فرنسا وهولندا وألمانيا — عادةً برسوم سنوية ثابتة. هذه غالباً أسرع خطوة للإنجاز، وتستغرق أياماً فحسب.
5. التسجيل في قاعدة بيانات EU AI Act
تشغّل المفوضية الأوروبية قاعدة بيانات رسمية لأنظمة الذكاء الاصطناعي عالية المخاطر متاحة عبر EU AI Act Service Desk. التسجيل إلزامي قبل طرح نظام عالي المخاطر في السوق الأوروبية. يتطلب ملخص الوثائق التقنية، وبيانات الاتصال بالممثل في الاتحاد الأوروبي، ونتيجة تقييم المطابقة، وإعلان علامة CE.
6. دمج الإشراف البشري والاحتفاظ بالسجلات في المنتج
يجب تصميم أنظمة الذكاء الاصطناعي عالية المخاطر لتمكين الإشراف البشري — هذا متطلب في المنتج لا مجرد التزام بالسياسة: واجهة تجاوز، نقطة تحقق بشرية، أو تدفق تصعيد يمنع القرارات الآلية الكاملة ذات العواقب. كما يجب الاحتفاظ بسجلات مخرجات النظام لمدة ستة أشهر على الأقل.
ما يعنيه هذا لطموح الجزائر في التصدير
لا يُغلق EU AI Act الباب أمام صادرات SaaS الجزائرية إلى أوروبا — لكنه يرفع سقف الدخول بشكل ملحوظ. الشركات المغربية والتونسية تواجه الالتزام ذاته. أول شركة برمجيات شمال أفريقية تحقق امتثالاً موثقاً لـ EU AI Act لنظام عالي المخاطر ستكتسب ميزة مصداقية في أسواق الاتحاد الأوروبي يصعب على المتأخرين تكرارها. بالنسبة للمؤسسين الجزائريين في مجالات HR-tech وfintech وedtech الذين يمتلكون قاعدة مستخدمين في الاتحاد الأوروبي، يبدأ مسار الـ 95 يوماً الآن.
الأسئلة الشائعة
هل يسري EU AI Act إذا كان لدى شركتنا الجزائرية بضعة عملاء في الاتحاد الأوروبي فحسب؟
نعم. تتبع الرقعة الجغرافية لـ EU AI Act المستخدمَ لا حجم المزود أو حصته في السوق. إذا كان نظام الذكاء الاصطناعي الخاص بك يُستخدم في الاتحاد الأوروبي أو ينتج مخرجات تؤثر في المقيمين فيه، فأنت في نطاق التطبيق — بغض النظر عما إذا كان لديك خمسة عملاء أو خمسة آلاف. لا يشترط عتبة إيرادات معينة؛ ينطبق من لحظة وصول مستخدمي الاتحاد الأوروبي إلى النظام.
ما أسرع خطوة امتثال لـ EU AI Act يمكن لشركة ناشئة جزائرية إنجازها؟
تعيين ممثل معتمد في الاتحاد الأوروبي هو عموماً أسرع إجراء للامتثال — يمكن إنجازه في غضون أيام عبر مكاتب محاماة متخصصة أو مزودي خدمات الامتثال في فرنسا أو هولندا أو ألمانيا، وهو متطلب صريح لجميع المزودين خارج الاتحاد لأنظمة الذكاء الاصطناعي عالية المخاطر. ورغم أنه وحده غير كافٍ، إلا أنه يسد الفجوة التنظيمية الأكثر وضوحاً فوراً ويُظهر نية امتثال بحسن نية للسلطات الأوروبية.
كيف يتشابك EU AI Act مع التزامات GDPR التي تمتلكها الشركات الجزائرية بالفعل؟
التداخل كبير وتراكمي. يجب على أنظمة الذكاء الاصطناعي عالية المخاطر التي تعالج بيانات شخصية إجراء كلٍّ من تقييم الأثر على الحقوق الأساسية (FRIA) بموجب المادة 27 من EU AI Act وتقييم أثر حماية البيانات (DPIA) بموجب المادة 35 من GDPR. الشركات التي تحتفظ بالفعل بسجلات معالجة GDPR لديها أساس توثيقي يمكن البناء عليه — لكن EU AI Act يضيف طبقة من مقاييس الأداء التقني (الدقة، اختبار التحيز، حوكمة بيانات التدريب) لا يشترطها GDPR.
المصادر والقراءات الإضافية
- US Companies Face EU AI Act’s Possible August 2026 Compliance Deadline — Holland & Knight
- 6 Steps to Take Before August 2, 2026 — Orrick
- EU AI Act Implementation Timeline — artificialintelligenceact.eu
- EU AI Act 2026 Updates: Compliance Requirements and Business Risks — LegalNodes
- Extraterritorial Scope of the EU AI Act — Data Privacy + Cybersecurity Insider
- EU AI Act 2026 Compliance Guide — Secure Privacy













