لماذا 2 أغسطس 2026 نقطة توقف حاسمة للمزودين خارج الاتحاد الأوروبي
EU AI Act (اللائحة 2024/1689) يطبق منطقه الجغرافي الخارجي بصورة صريحة في المادة 2. تسري اللائحة على المزودين الذين يضعون أنظمة الذكاء الاصطناعي “في السوق الأوروبية” والمزودين الذين “تُستخدم مخرجات” أنظمتهم “في الاتحاد”، بصرف النظر عن موقع تأسيس المزودين أو مكان خوادمهم. هذا يعكس الآلية التي جعلت GDPR حدثاً عالمياً للامتثال في 2018: موقع المستخدم هو الذي يحدد الالتزام التنظيمي، لا موقع الشركة.
فئات الملحق III عالية المخاطر ليست حالات هامشية. تشمل أنظمة الذكاء الاصطناعي المنشورة في: التعريف البيومتري؛ إدارة البنية التحتية الحيوية (الماء، الغاز، الكهرباء، النقل)؛ التعليم والتدريب المهني (القبول، التقييم)؛ التوظيف وإدارة العمال (فرز السير الذاتية، مراقبة الأداء)؛ الوصول إلى الخدمات الأساسية الخاصة والعامة (تقييم الائتمان، تقييم مخاطر التأمين)؛ إنفاذ القانون؛ مراقبة الهجرة والحدود؛ وإدارة العدالة.
الالتزامات المالية حقيقية. تصل الغرامات لعدم الامتثال بالالتزامات عالية المخاطر إلى 15 مليون يورو أو 3% من إجمالي الإيرادات السنوية العالمية، أيهما أعلى.
إعلان
قائمة التحقق من ثمانية بنود لأنظمة الملحق III
1. تأكيد تصنيف الملحق III
قبل أي عمل امتثال، تحقق بدقة مما إذا كان نظامك مؤهلاً كنظام عالي المخاطر وفق الملحق III. تشمل اللائحة قائمة إيجابية (أنظمة عالية المخاطر بحكم الفئة) وقائمة استثناءات. يجب أن يوثّق تمرين التصنيف: الغرض المقصود للنظام، والفئة المطالب بها أو المستثناة من الملحق III، وسياق النشر، والأساس القانوني لاستنتاج التصنيف.
2. إجراء تقييم المطابقة
بالنسبة لمعظم فئات الملحق III، تقييم المطابقة هو تقييم ذاتي — لا يُشترط طرف ثالث (الاستثناء: أنظمة التعريف البيومتري عن بُعد تستلزم هيئة مُخطراً بها). غير أن “التقييم الذاتي” لا يعني مراجعة غير رسمية. يجب أن يوثّق التقييم امتثال النظام لمتطلبات القانون عبر ستة أبعاد: نظام إدارة المخاطر، حوكمة البيانات، الوثائق التقنية، الشفافية وتعليمات الاستخدام، الإشراف البشري، الدقة والصلابة.
3. إنتاج الوثائق التقنية والحفاظ عليها
تحدد المادة 11 والملحق IV متطلبات الوثائق التقنية. يتضمن المحتوى المطلوب: وصفاً عاماً للنظام وغرضه المقصود؛ وصف مكونات نظام الذكاء الاصطناعي وعملية التطوير؛ معلومات عن بيانات التدريب والتحقق والاختبار بما تشمل ممارسات حوكمة البيانات؛ وصف آليات المراقبة والتشغيل والتحكم؛ مواصفات الأداء والقيود المعروفة؛ ومعلومات حول إجراءات المراقبة بعد الطرح في السوق.
4. تعيين ممثل معتمد في الاتحاد الأوروبي
تُلزم المادة 25 من اللائحة مزودي أنظمة الذكاء الاصطناعي عالية المخاطر خارج الاتحاد الأوروبي بتعيين ممثل قانوني مقيم في دولة عضو في الاتحاد الأوروبي. هذا الممثل يتصرف بوصفه نقطة التواصل مع السلطات الوطنية المختصة ويتحمل المسؤولية الرسمية إلى جانب المزوّد. هذه غالباً أسرع خطوة امتثال للإنجاز — أيام لا أشهر — وأكثر خطوة يتجاهلها الفرق خارج الاتحاد الأوروبي.
5. إلصاق علامة CE والتوقيع على إعلان المطابقة الأوروبي
بالنسبة للأنظمة البرمجية البحتة غير المدمجة في منتجات مادية، قد لا تنطبق علامة CE، لكن يجب إصدار إعلان المطابقة الأوروبي — وثيقة رسمية تُعلن الامتثال لـ EU AI Act — قبل طرح النظام في السوق الأوروبية.
6. التسجيل في قاعدة بيانات EU AI Act
تشغّل المفوضية الأوروبية قاعدة بيانات رسمية لأنظمة الذكاء الاصطناعي عالية المخاطر متاحة عبر EU AI Act Service Desk. التسجيل إلزامي قبل طرح نظام عالي المخاطر في السوق الأوروبية. التسجيل عام — مما يعني أيضاً أنه يُشير إلى الموثوقية لمشتري الشركات وضباط المشتريات في الاتحاد الأوروبي.
7. تطبيق آليات الإشراف البشري في المنتج
تُلزم المادة 14 بأن تُصمَّم أنظمة الذكاء الاصطناعي عالية المخاطر لتمكين الإشراف البشري. يجب أن يسمح النظام للمسؤولين عن نشره بفهم قدراته وقيوده؛ ومراقبة عمله والكشف عن الشذوذ؛ وإلغاء مخرجاته أو مقاطعتها عند الحاجة. عملياً، هذا يعني بناء واجهات تجاوز وتدفقات تصعيد وتنبيهات الشذوذ في المنتج ذاته.
8. الاحتفاظ بالسجلات لستة أشهر
يجب على مُشغِّلي أنظمة الذكاء الاصطناعي عالية المخاطر الاحتفاظ بالسجلات التي يُنتجها النظام آلياً لمدة ستة أشهر على الأقل بموجب المادة 12. بالنسبة لمزودي SaaS الذين يعملون أيضاً كمشغّلين، يقع هذا الالتزام مباشرةً على المزوّد. يجب أن تكون السجلات منظمة وآمنة من التلاعب وكافية لإعادة بناء عمل النظام ومخرجاته.
المشهد المستقبلي للامتثال
تاريخ 2 أغسطس 2026 مستقر لمعظم الفئات عالية المخاطر، رغم أن المناقشات البرلمانية تتضمن مقترحات لتمديد بعض المواعيد إلى ديسمبر 2027 وأغسطس 2028 — في انتظار موافقة المجلس. لا ينبغي للمزودين خارج الاتحاد الأوروبي التخطيط على أساس تمديدات محتملة. الشركات التي تبني توثيق الامتثال والإشراف والبنية الحوكمية لـ EU AI Act في 2026 ستجد أن البنية ذاتها تُشكّل أساساً للامتثال في كل ولاية قضائية لاحقة.
الأسئلة الشائعة
ما الفرق بين نظام الذكاء الاصطناعي عالي المخاطر ونموذج الذكاء الاصطناعي متعدد الاستخدامات في ظل EU AI Act؟
أنظمة الذكاء الاصطناعي عالية المخاطر هي تطبيقات محددة منشورة في سياقات ذات عواقب معرّفة بالملحق III — وتتحمل العبء الكامل للامتثال في أغسطس 2026. نماذج الذكاء الاصطناعي متعددة الاستخدامات (GPAIs) كنماذج اللغة الكبيرة تخضع لتنظيم منفصل بموجب المادة 51 والفصل V، مع التزامات GPAI المطبّقة منذ 2 أغسطس 2025.
هل يمكن للمزوّد خارج الاتحاد الأوروبي بيع نظام ذكاء اصطناعي عالي المخاطر لعميل في الاتحاد قبل استكمال خطوات الامتثال الثمانية؟
لا. تشترط اللائحة استيفاء التزامات الامتثال قبل “طرح النظام في السوق الأوروبية” — وهو ما يشمل المبيعات المباشرة للمستهلكين وعقود B2B التي تنشر فيها كيانات أوروبية النظام لمستخدمين في الاتحاد الأوروبي. البيع أولاً والامتثال لاحقاً ليس استراتيجية مجدية.
ما تكلفة تعيين ممثل معتمد في الاتحاد الأوروبي لأغراض EU AI Act؟
تتراوح تكاليف خدمات الممثل المتخصصة في EU AI Act عادةً بين 2,000 و15,000 يورو سنوياً، حسب عدد الأنظمة وتعقيد وثائق الامتثال والخدمات الاستشارية القانونية المضمّنة. هذه من بين أقل خطوات الامتثال تكلفةً وينبغي البدء بها فوراً بصرف النظر عن تقدم أعمال الامتثال الأخرى.
المصادر والقراءات الإضافية
- US Companies Face EU AI Act’s Possible August 2026 Compliance Deadline — Holland & Knight
- 6 Steps to Take Before August 2, 2026 — Orrick
- EU AI Act Article 16: Obligations of Providers of High-Risk AI Systems — artificialintelligenceact.eu
- EU AI Act 2026 Updates: Compliance Requirements and Business Risks — LegalNodes
- EU AI Act Implementation Timeline — EU AI Act Service Desk
- Extraterritorial Scope of the EU AI Act — Data Privacy + Cybersecurity Insider














