⚡ أبرز النقاط

يواجه مزودو الأنظمة عالية المخاطر المدرجة في الملحق الثالث من خارج الاتحاد الأوروبي التزامات امتثال ملزمة بموجب قانون الذكاء الاصطناعي الأوروبي اعتباراً من 2 أغسطس 2026، تشمل تقييم المطابقة والتوثيق التقني وتعيين ممثل مُفوَّض في الاتحاد الأوروبي والتسجيل في قاعدة البيانات — مع غرامات تصل إلى 15 مليون يورو أو 3% من الإيرادات السنوية العالمية عند عدم الامتثال. النطاق الخارج الإقليمي للقانون يجعل موقع التأسيس غير ذي صلة؛ المهم هو المكان الذي تُستخدم فيه مخرجات النظام.

خلاصة سريعة: ينبغي لمزودي الذكاء الاصطناعي من خارج الاتحاد الأوروبي مراجعة محفظة منتجاتهم فوراً مقابل قائمة الأنظمة عالية المخاطر في الملحق الثالث، وتحديد المسؤول عن كل بند من قائمة التحقق الثمانية، والتعاقد مع ممثل مُفوَّض في الاتحاد الأوروبي — الشركات التي تُنجز الخطوات الثماني قبل 2 أغسطس ستكون مُهيأة لمبيعات المؤسسات في السوق الأوروبية بدلاً من التعرض لخطر الانسحاب منها.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
عالي

مصدّرو SaaS الجزائريون الذين لديهم مستخدمون في الاتحاد الأوروبي في HR-tech وfintech وedtech يخضعون لنفس التزامات الملحق III كأي مزوّد خارج الاتحاد الأوروبي — اللائحة لا تفرّق حسب بلد الأصل، والتعرض للغرامات البالغة 15 مليون يورو متطابق.
البنية التحتية جاهزة؟
جزئي

تمتلك الشركات الجزائرية عموماً بنى تحتية سحابية قادرة على استيفاء متطلبات التسجيل وAPI، لكن معظمها يفتقر إلى ممارسات توثيق نماذج الذكاء الاصطناعي، وبنية تحتية لاختبار التحيز، وكفاءة قانونية في الامتثال الأوروبي.
المهارات متوفرة؟
جزئي

مهارات الامتثال التقني (تسجيل API، توثيق النماذج) موجودة في مجتمع المطورين الجزائريين؛ الخبرة القانونية في حوكمة الذكاء الاصطناعي والتنظيم الأوروبي شحيحة وتحتاج عادةً إلى الاستعانة بشركاء أو مستشارين مقيمين في الاتحاد.
الجدول الزمني للعمل
فوري

2 أغسطس 2026 على بعد نحو 95 يوماً؛ تقييم المطابقة والوثائق التقنية وتعيين الممثل في الاتحاد الأوروبي تستلزم جميعها أسابيع من وقت الإعداد.
أصحاب المصلحة الرئيسيون
ضباط الامتثال في الشركات، مزودو الذكاء الاصطناعي خارج الاتحاد الأوروبي، المدراء التقنيون، الفرق القانونية، مصدّرو SaaS الجزائريون
نوع القرار
تكتيكي

يوفر هذا المقال قائمة تحقق من ثمانية بنود يمكن للمزودين خارج الاتحاد الأوروبي استخدامها كخطة مشروع لموعد أغسطس 2026.

خلاصة سريعة: يجب على مزودي الذكاء الاصطناعي خارج الاتحاد الأوروبي هذا الأسبوع فرز محفظة منتجاتهم مقارنةً بقائمة الملحق III، وتخصيص المسؤولية عن التوثيق التقني وتقييم المطابقة، وإبرام عقد مع ممثل معتمد في الاتحاد الأوروبي. الشركات التي تستكمل البنود الثمانية قبل 2 أغسطس ستكون في موضع نمو مبيعات الشركات الأوروبية؛ تلك التي تنتظر تواجه أوامر سحب من السوق من السلطات الوطنية المختصة.

لماذا 2 أغسطس 2026 نقطة توقف حاسمة للمزودين خارج الاتحاد الأوروبي

EU AI Act (اللائحة 2024/1689) يطبق منطقه الجغرافي الخارجي بصورة صريحة في المادة 2. تسري اللائحة على المزودين الذين يضعون أنظمة الذكاء الاصطناعي “في السوق الأوروبية” والمزودين الذين “تُستخدم مخرجات” أنظمتهم “في الاتحاد”، بصرف النظر عن موقع تأسيس المزودين أو مكان خوادمهم. هذا يعكس الآلية التي جعلت GDPR حدثاً عالمياً للامتثال في 2018: موقع المستخدم هو الذي يحدد الالتزام التنظيمي، لا موقع الشركة.

فئات الملحق III عالية المخاطر ليست حالات هامشية. تشمل أنظمة الذكاء الاصطناعي المنشورة في: التعريف البيومتري؛ إدارة البنية التحتية الحيوية (الماء، الغاز، الكهرباء، النقل)؛ التعليم والتدريب المهني (القبول، التقييم)؛ التوظيف وإدارة العمال (فرز السير الذاتية، مراقبة الأداء)؛ الوصول إلى الخدمات الأساسية الخاصة والعامة (تقييم الائتمان، تقييم مخاطر التأمين)؛ إنفاذ القانون؛ مراقبة الهجرة والحدود؛ وإدارة العدالة.

الالتزامات المالية حقيقية. تصل الغرامات لعدم الامتثال بالالتزامات عالية المخاطر إلى 15 مليون يورو أو 3% من إجمالي الإيرادات السنوية العالمية، أيهما أعلى.

إعلان

قائمة التحقق من ثمانية بنود لأنظمة الملحق III

1. تأكيد تصنيف الملحق III

قبل أي عمل امتثال، تحقق بدقة مما إذا كان نظامك مؤهلاً كنظام عالي المخاطر وفق الملحق III. تشمل اللائحة قائمة إيجابية (أنظمة عالية المخاطر بحكم الفئة) وقائمة استثناءات. يجب أن يوثّق تمرين التصنيف: الغرض المقصود للنظام، والفئة المطالب بها أو المستثناة من الملحق III، وسياق النشر، والأساس القانوني لاستنتاج التصنيف.

2. إجراء تقييم المطابقة

بالنسبة لمعظم فئات الملحق III، تقييم المطابقة هو تقييم ذاتي — لا يُشترط طرف ثالث (الاستثناء: أنظمة التعريف البيومتري عن بُعد تستلزم هيئة مُخطراً بها). غير أن “التقييم الذاتي” لا يعني مراجعة غير رسمية. يجب أن يوثّق التقييم امتثال النظام لمتطلبات القانون عبر ستة أبعاد: نظام إدارة المخاطر، حوكمة البيانات، الوثائق التقنية، الشفافية وتعليمات الاستخدام، الإشراف البشري، الدقة والصلابة.

3. إنتاج الوثائق التقنية والحفاظ عليها

تحدد المادة 11 والملحق IV متطلبات الوثائق التقنية. يتضمن المحتوى المطلوب: وصفاً عاماً للنظام وغرضه المقصود؛ وصف مكونات نظام الذكاء الاصطناعي وعملية التطوير؛ معلومات عن بيانات التدريب والتحقق والاختبار بما تشمل ممارسات حوكمة البيانات؛ وصف آليات المراقبة والتشغيل والتحكم؛ مواصفات الأداء والقيود المعروفة؛ ومعلومات حول إجراءات المراقبة بعد الطرح في السوق.

4. تعيين ممثل معتمد في الاتحاد الأوروبي

تُلزم المادة 25 من اللائحة مزودي أنظمة الذكاء الاصطناعي عالية المخاطر خارج الاتحاد الأوروبي بتعيين ممثل قانوني مقيم في دولة عضو في الاتحاد الأوروبي. هذا الممثل يتصرف بوصفه نقطة التواصل مع السلطات الوطنية المختصة ويتحمل المسؤولية الرسمية إلى جانب المزوّد. هذه غالباً أسرع خطوة امتثال للإنجاز — أيام لا أشهر — وأكثر خطوة يتجاهلها الفرق خارج الاتحاد الأوروبي.

5. إلصاق علامة CE والتوقيع على إعلان المطابقة الأوروبي

بالنسبة للأنظمة البرمجية البحتة غير المدمجة في منتجات مادية، قد لا تنطبق علامة CE، لكن يجب إصدار إعلان المطابقة الأوروبي — وثيقة رسمية تُعلن الامتثال لـ EU AI Act — قبل طرح النظام في السوق الأوروبية.

6. التسجيل في قاعدة بيانات EU AI Act

تشغّل المفوضية الأوروبية قاعدة بيانات رسمية لأنظمة الذكاء الاصطناعي عالية المخاطر متاحة عبر EU AI Act Service Desk. التسجيل إلزامي قبل طرح نظام عالي المخاطر في السوق الأوروبية. التسجيل عام — مما يعني أيضاً أنه يُشير إلى الموثوقية لمشتري الشركات وضباط المشتريات في الاتحاد الأوروبي.

7. تطبيق آليات الإشراف البشري في المنتج

تُلزم المادة 14 بأن تُصمَّم أنظمة الذكاء الاصطناعي عالية المخاطر لتمكين الإشراف البشري. يجب أن يسمح النظام للمسؤولين عن نشره بفهم قدراته وقيوده؛ ومراقبة عمله والكشف عن الشذوذ؛ وإلغاء مخرجاته أو مقاطعتها عند الحاجة. عملياً، هذا يعني بناء واجهات تجاوز وتدفقات تصعيد وتنبيهات الشذوذ في المنتج ذاته.

8. الاحتفاظ بالسجلات لستة أشهر

يجب على مُشغِّلي أنظمة الذكاء الاصطناعي عالية المخاطر الاحتفاظ بالسجلات التي يُنتجها النظام آلياً لمدة ستة أشهر على الأقل بموجب المادة 12. بالنسبة لمزودي SaaS الذين يعملون أيضاً كمشغّلين، يقع هذا الالتزام مباشرةً على المزوّد. يجب أن تكون السجلات منظمة وآمنة من التلاعب وكافية لإعادة بناء عمل النظام ومخرجاته.

المشهد المستقبلي للامتثال

تاريخ 2 أغسطس 2026 مستقر لمعظم الفئات عالية المخاطر، رغم أن المناقشات البرلمانية تتضمن مقترحات لتمديد بعض المواعيد إلى ديسمبر 2027 وأغسطس 2028 — في انتظار موافقة المجلس. لا ينبغي للمزودين خارج الاتحاد الأوروبي التخطيط على أساس تمديدات محتملة. الشركات التي تبني توثيق الامتثال والإشراف والبنية الحوكمية لـ EU AI Act في 2026 ستجد أن البنية ذاتها تُشكّل أساساً للامتثال في كل ولاية قضائية لاحقة.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما الفرق بين نظام الذكاء الاصطناعي عالي المخاطر ونموذج الذكاء الاصطناعي متعدد الاستخدامات في ظل EU AI Act؟

أنظمة الذكاء الاصطناعي عالية المخاطر هي تطبيقات محددة منشورة في سياقات ذات عواقب معرّفة بالملحق III — وتتحمل العبء الكامل للامتثال في أغسطس 2026. نماذج الذكاء الاصطناعي متعددة الاستخدامات (GPAIs) كنماذج اللغة الكبيرة تخضع لتنظيم منفصل بموجب المادة 51 والفصل V، مع التزامات GPAI المطبّقة منذ 2 أغسطس 2025.

هل يمكن للمزوّد خارج الاتحاد الأوروبي بيع نظام ذكاء اصطناعي عالي المخاطر لعميل في الاتحاد قبل استكمال خطوات الامتثال الثمانية؟

لا. تشترط اللائحة استيفاء التزامات الامتثال قبل “طرح النظام في السوق الأوروبية” — وهو ما يشمل المبيعات المباشرة للمستهلكين وعقود B2B التي تنشر فيها كيانات أوروبية النظام لمستخدمين في الاتحاد الأوروبي. البيع أولاً والامتثال لاحقاً ليس استراتيجية مجدية.

ما تكلفة تعيين ممثل معتمد في الاتحاد الأوروبي لأغراض EU AI Act؟

تتراوح تكاليف خدمات الممثل المتخصصة في EU AI Act عادةً بين 2,000 و15,000 يورو سنوياً، حسب عدد الأنظمة وتعقيد وثائق الامتثال والخدمات الاستشارية القانونية المضمّنة. هذه من بين أقل خطوات الامتثال تكلفةً وينبغي البدء بها فوراً بصرف النظر عن تقدم أعمال الامتثال الأخرى.

المصادر والقراءات الإضافية