ما الذي يتغيّر في الثاني من أغسطس 2026
دخل قانون الذكاء الاصطناعي الأوروبي حيّز التنفيذ في الأول من أغسطس 2024، وهو يتبع منذ ذلك الحين جدولاً تطبيقياً مرحلياً. حُظرت ممارسات الذكاء الاصطناعي المحظورة في الثاني من فبراير 2025. طُبّقت التزامات نماذج GPAI اعتباراً من الثاني من أغسطس 2025. أما المحطة التشغيلية الكبرى — التطبيق الكامل لأنظمة الذكاء الاصطناعي عالية الخطورة المدرجة في الملحق III — فتحل في الثاني من أغسطس 2026.
يُحدد الملحق III ثماني فئات من أنظمة الذكاء الاصطناعي عالية الخطورة: القياسات الحيوية والتعرف على المشاعر، وإدارة البنية التحتية الحيوية (الطاقة، الماء، النقل)، والذكاء الاصطناعي المستخدم في قرارات الوصول إلى التعليم، وإدارة التوظيف والقوى العاملة، والوصول إلى الخدمات الأساسية (تسجيل الائتمان، الاكتتاب التأميني، الاستحقاقات الاجتماعية)، وتطبيقات إنفاذ القانون، وأنظمة معالجة الهجرة واللجوء، ومساعدة إدارة العدالة.
تشمل متطلبات الامتثال التي تدخل حيّز التنفيذ في الثاني من أغسطس 2026 لأنظمة الملحق III أربعة عناصر إلزامية: تقييم المطابقة، وعلامة CE، والتسجيل في قاعدة البيانات، وخطة المراقبة بعد التسويق.
عملية تقييم المطابقة في التطبيق الفعلي
تقييم المطابقة هو أكثر ممارسات التوثيق جوهريةً في عملية الامتثال. إنه ليس قائمة تحقق من صفحة واحدة — بل دوسيه تقني منظّم يجب أن يُثبت الامتثال عبر ستة أبعاد.
يجب أن يُظهر توثيق إدارة المخاطر أن المزوّد حدّد وقيّم وخفّف المخاطر المتوقعة بشكل معقول للنظام عبر دورة حياته — بما في ذلك سيناريوهات إساءة الاستخدام المعروفة.
يجب أن يُثبت توثيق حوكمة البيانات أن مجموعات بيانات التدريب والتحقق والاختبار خضعت لممارسات مناسبة لإدارة البيانات — بما في ذلك فحص التحيّز وفحوصات الأهمية وتوثيق القيود المعروفة.
يجب أن تقدّم الوثائق التقنية وصفاً كاملاً للنظام: الغرض وعملية التطوير ومنهجية التدريب والهندسة المعمارية ومتطلبات الحوسبة وتنسيقات الإخراج. يجب الاحتفاظ بهذه الوثائق لمدة 10 سنوات.
تُلزم متطلبات الشفافية بأن يتلقى مستخدمو الأنظمة عالية الخطورة إفصاحاً عن قدرات النظام وقيوده ومستوى الإشراف البشري المطلوب. بالنسبة لأدوات الموارد البشرية، يعني هذا إبلاغ المتقدمين بأنهم يُقيَّمون بواسطة نظام ذكاء اصطناعي.
إعلان
ما يجب على المؤسسات فعله قبل الثاني من أغسطس
1. إتمام جرد أنظمة الملحق III بحلول الأول من يونيو 2026
الشرط المسبق لأي إجراء امتثال هو جرد كامل لأنظمة الذكاء الاصطناعي الواقعة ضمن نطاق الملحق III. يتطلب هذا مراجعة متعددة الوظائف تشمل إدارة المنتجات والشؤون القانونية والفرق التقنية — نطاق الملحق III يُحدَّد بحالة الاستخدام، لا بالتقنية. تُلاحظ شركة Holland & Knight أن كثيراً من المؤسسات تُقلّل من تقدير نطاق الملحق III لأنها تُصنّف أنظمة الذكاء الاصطناعي وفق وظيفتها الأساسية لا وفق القرار الذي تؤثر فيه. ابنِ الجرد بشكل محافظ وطبّق اختبار النطاق: هل مخرجات هذا النظام تؤثر على وصول الأفراد إلى الخدمات أو الفرص أو الحقوق؟
2. إعطاء الأولوية للتقييم من طرف ثالث للأنظمة البيومترية وأنظمة إنفاذ القانون
تؤهّل معظم أنظمة الملحق III لإجراءات تقييم المطابقة الذاتي. غير أن المادة 43 من قانون الذكاء الاصطناعي تشترط تقييماً من هيئة اتحادية أوروبية معتمدة لأنظمة التعرف البيومتري عن بُعد في الأماكن العامة وأنظمة التصنيف البيومتري وأنظمة التعرف على المشاعر في بيئات التوظيف أو التعليم. إذا كان نظامك ينتمي لإحدى هذه الفئات، فلا يمكنك إصدار شهادة ذاتية. الطاقة الاستيعابية للهيئات المعتمدة محدودة: وفق تتبّع الامتثال لدى Secure Privacy AI، أقل من 15 منظمة في الاتحاد الأوروبي بأكمله حصلت على وضع هيئة معتمدة لتقييمات قانون الذكاء الاصطناعي، ومهل الحجز تمتد 12 إلى 16 أسبوعاً.
3. تسجيل الأنظمة في قاعدة بيانات الذكاء الاصطناعي الأوروبية قبل الثاني من أغسطس
تُلزم قاعدة بيانات الذكاء الاصطناعي الأوروبية المزوّدين بتسجيل كل نظام ذكاء اصطناعي عالي الخطورة من الملحق III، بما يشمل: اسم النظام والإصدار والغرض المقصود والفئة ونوع المستخدم وبلد النشر وما إذا كان تقييم المطابقة ذاتياً أو أجرته هيئة معتمدة. أي تعديل جوهري على نظام مسجّل يستوجب إعادة تقييم وتحديث التسجيل.
4. دمج المراقبة بعد التسويق في خط أنابيب MLOps الخاص بك
المراقبة بعد التسويق هي التزام الامتثال الأقل فهماً في حزمة أغسطس 2026. تُلزم المزوّدين بجمع بيانات استباقية عن أداء أنظمة الذكاء الاصطناعي عالية الخطورة في النشر الفعلي والإبلاغ عن الحوادث الخطيرة لسلطات مراقبة السوق الوطنية (15 يوماً للحوادث التي تسبب وفاة أو ضرراً جسيماً مباشراً). توصي Legal Nodes بدمج المراقبة بعد التسويق في خطوط MLOps كممارسة قياسية — الأدوات القائمة (MLflow وWeights & Biases) توفر البنية التحتية التقنية لكنها تحتاج إلى موصّلات رسمية لتصعيد الحوادث.
الصورة الأشمل
الثاني من أغسطس 2026 ليس نهاية تعقيد الامتثال لقانون الذكاء الاصطناعي الأوروبي — إنه أول نقطة تحكم تشغيلية كبرى. بالنسبة للمنظمات خارج الاتحاد الأوروبي التي تنشر أنظمة ذكاء اصطناعي يصل إليها المقيمون في الاتحاد الأوروبي — بما في ذلك الشركات في الجزائر والخليج وجنوب شرق آسيا — يعني النطاق الخارج الإقليمي للقانون أن الامتثال ليس اختيارياً. أي مزوّد أو مُستخدِم تُستعمل مخرجات نظامه داخل الاتحاد الأوروبي يجب أن يمتثل، بصرف النظر عن مكان تطوير النظام أو استضافته.
الأسئلة الشائعة
ما أنظمة الذكاء الاصطناعي المعتبرة “عالية الخطورة” بموجب الملحق III لقانون الذكاء الاصطناعي الأوروبي؟
يُدرج الملحق III ثماني فئات: القياسات الحيوية (بما في ذلك التعرف على المشاعر)، وإدارة البنية التحتية الحيوية (الطاقة، الماء، النقل)، وقرارات الوصول إلى التعليم، وإدارة التوظيف والقوى العاملة (بما في ذلك فرز السير الذاتية ومراقبة الأداء)، والوصول إلى الخدمات الأساسية (تسجيل الائتمان، التأمين، الاستحقاقات الاجتماعية)، وتطبيقات إنفاذ القانون، ومعالجة الهجرة واللجوء، وإدارة العدالة.
ما العقوبة على تجاوز الموعد النهائي للامتثال الثاني من أغسطس 2026؟
يستوجب عدم الامتثال بمتطلبات أنظمة الذكاء الاصطناعي عالية الخطورة غرامات تصل إلى 15 مليون يورو أو 3% من حجم المبيعات السنوي العالمي، أيهما أعلى. بالنسبة لممارسات الذكاء الاصطناعي المحظورة (المحظورة منذ فبراير 2025)، يبلغ الحد الأقصى 35 مليون يورو أو 7% من حجم المبيعات العالمي. يُتيح القانون أيضاً لسلطات مراقبة السوق الوطنية طلب سحب الأنظمة غير الممتثلة من السوق الأوروبية.
هل ينطبق قانون الذكاء الاصطناعي الأوروبي على الشركات غير الأوروبية؟
نعم. ينطبق قانون الذكاء الاصطناعي الأوروبي خارج إقليمياً: أي مزوّد (مطوّر) أو مُستخدِم (منظمة مستعملة) تُستعمل مخرجات نظامه داخل الاتحاد الأوروبي يجب أن يمتثل، بصرف النظر عن بلد تأسيس المنظمة أو مكان استضافة النظام. وهذا يعني أن الشركات الجزائرية والأمريكية والآسيوية تواجه جميعها الالتزامات ذاتها بالنسبة لمنتجات الذكاء الاصطناعي الموجهة للاتحاد الأوروبي.
—
















