موعد 2 أغسطس: ما الذي يصبح قابلاً للتطبيق
دخل قانون الذكاء الاصطناعي للاتحاد الأوروبي حيز النفاذ في 1 أغسطس 2024، مع جدول تنفيذ تدريجي. أصبحت ممارسات الذكاء الاصطناعي المحظورة سارية في 2 فبراير 2025. بدأت التزامات نماذج الذكاء الاصطناعي للأغراض العامة في 2 أغسطس 2025. لكن المتطلبات الأكثر إلحاحاً تشغيلياً — تلك التي تحكم أنظمة الذكاء الاصطناعي عالية المخاطر في الملحق الثالث — تصبح قابلة للتطبيق في 2 أغسطس 2026.
يؤثر هذا الموعد على كل مؤسسة تنشر أنظمة ذكاء اصطناعي في سياقات تصنفها اللائحة على أنها عالية المخاطر. على عكس الممارسات المحظورة (التي تستهدف مجموعة محدودة من تطبيقات الذكاء الاصطناعي الضارة بوضوح)، فإن تصنيف المخاطر العالية يلتقط أنظمة ذكاء اصطناعي منتشرة على نطاق واسع عبر الصناعات. الأثر التشغيلي أكبر بمراتب.
ما المؤهل كعالي المخاطر
يحدد قانون الذكاء الاصطناعي أنظمة الذكاء الاصطناعي عالية المخاطر من خلال آليتين. تضع المادة 6 قواعد التصنيف بناءً على ما إذا كان النظام يندرج تحت تشريعات سلامة المنتجات الأوروبية الحالية (الملحق الثاني) أو يخدم أغراضاً مدرجة في الملحق الثالث.
تشمل فئات الملحق الثالث عالية المخاطر أنظمة الذكاء الاصطناعي المستخدمة في التعرف والتصنيف البيومتري، وإدارة وتشغيل البنية التحتية الحرجة، والتعليم والتدريب المهني (الوصول والتقييم والمراقبة)، والتوظيف وإدارة العمال والوصول للعمل المستقل (التوظيف وتقييم الأداء وتوزيع المهام)، والوصول للخدمات الخاصة والعامة الأساسية (تقييم الائتمان وتسعير التأمين وإيفاد الطوارئ)، وإنفاذ القانون (تقييم المخاطر وكشف الكذب وتحليل الأدلة)، والهجرة واللجوء ومراقبة الحدود، وإدارة العدالة والعمليات الديمقراطية.
اتساع هذا التصنيف يعني أن أداة فرز التوظيف المدعومة بالذكاء الاصطناعي، وخوارزمية تقييم الائتمان، ونظام ذكاء اصطناعي يدير عمليات شبكة الكهرباء، وأداة تقييم المخاطر لإنفاذ القانون، تندرج جميعها تحت نفس إطار امتثال المخاطر العالية — رغم خدمتها لقطاعات مختلفة تماماً.
متطلبات الامتثال
يجب على مقدمي أنظمة الذكاء الاصطناعي عالية المخاطر استيفاء متطلبات في ستة مجالات امتثال قبل طرح أنظمتهم في السوق الأوروبية أو تشغيلها.
نظام إدارة المخاطر: عملية مستمرة وتكرارية تحدد وتقيّم وتخفف المخاطر طوال دورة حياة النظام. هذا ليس تقييماً لمرة واحدة بل التزام دائم يجب توثيقه وتحديثه مع تطور النظام.
حوكمة البيانات: يجب أن تستوفي مجموعات بيانات التدريب والتحقق والاختبار معايير جودة تشمل الصلة والتمثيلية والدقة والاكتمال. يجب على المؤسسات توثيق مصدر البيانات وعمليات الإعداد والتحيزات المحددة والمخففة.
التوثيق التقني: يجب أن يصف توثيق شامل الغرض المقصود للنظام ومواصفات التصميم وعملية التطوير ومقاييس الأداء والقيود المعروفة. يجب إعداد هذا التوثيق قبل دخول النظام السوق وصيانته طوال دورة حياته.
الرقابة البشرية: يجب تصميم الأنظمة عالية المخاطر للسماح بالرقابة الفعالة من قبل أشخاص طبيعيين. يجب أن تمكّن آليات الرقابة الإنسان من فهم قدرات النظام وحدوده ومراقبة التشغيل وتفسير المخرجات والتدخل أو التجاوز عند الضرورة.
الدقة والمتانة والأمن السيبراني: يجب أن تحقق الأنظمة مستويات دقة موثقة مناسبة لغرضها المقصود، وتُظهر متانة ضد الأخطاء والعيوب ومحاولات التلاعب، وتنفذ تدابير أمن سيبراني متناسبة مع المخاطر.
تقييم المطابقة: قبل الطرح في السوق، يجب على المقدمين إكمال تقييم مطابقة يثبت الامتثال لجميع المتطلبات. لمعظم أنظمة الملحق الثالث، هذا تقييم ذاتي قائم على الضوابط الداخلية. ومع ذلك، تتطلب بعض أنظمة التعرف البيومتري تقييماً من طرف ثالث بواسطة هيئات معتمدة.
بعد إكمال تقييم المطابقة، يجب على المقدمين وضع علامة CE وتسجيل النظام في قاعدة بيانات أنظمة الذكاء الاصطناعي عالية المخاطر الأوروبية وإنشاء أنظمة مراقبة ما بعد السوق.
إعلان
التطبيق والعقوبات
يجب على الدول الأعضاء تعيين سلطات وطنية مختصة مسؤولة عن تطبيق قانون الذكاء الاصطناعي. تصل عقوبات عدم الامتثال لمتطلبات المخاطر العالية إلى 15 مليون يورو أو 3% من حجم الأعمال السنوي العالمي، أيهما أعلى. للممارسات المحظورة، ترتفع العقوبات إلى 35 مليون يورو أو 7% من حجم الأعمال. لتقديم معلومات غير صحيحة للسلطات، تصل الغرامات إلى 7.5 مليون يورو أو 1% من حجم الأعمال.
ما يجب على المؤسسات فعله قبل 2 أغسطس
تحدد ست خطوات تحضيرية المسار الحرج. أولاً، جرد جميع أنظمة الذكاء الاصطناعي وتصنيفها وفق فئات المخاطر. ثانياً، للأنظمة المحددة كعالية المخاطر، تقييم الفجوة بين التوثيق والممارسات الحالية ومتطلبات اللائحة. ثالثاً، تنفيذ أنظمة إدارة المخاطر كعمليات مستمرة. رابعاً، مراجعة وتوثيق ممارسات حوكمة البيانات. خامساً، تصميم وتنفيذ آليات الرقابة البشرية. سادساً، إكمال تقييمات المطابقة والاستعداد للتسجيل في القاعدة الأوروبية.
المؤسسات التي لم تبدأ هذه العملية تواجه جدولاً زمنياً مضغوطاً بشكل متزايد. تقييم المطابقة وحده — بما في ذلك التوثيق التقني والاختبار والتدقيق الداخلي — يتطلب عادة أربعة إلى ستة أشهر لأنظمة الذكاء الاصطناعي المعقدة.
التأثيرات العالمية
يخلق قانون الذكاء الاصطناعي الأوروبي جاذبية تنظيمية تمتد خارج الحدود الأوروبية. يجب على أي مؤسسة تنشر أنظمة ذكاء اصطناعي تؤثر على أشخاص في الاتحاد الأوروبي الامتثال، بغض النظر عن مكان تأسيس المقدم. هذا النطاق خارج الإقليم يعكس تأثير اللائحة العامة لحماية البيانات (GDPR) على ممارسات حماية البيانات العالمية.
تطور عدة ولايات قضائية أطر تنظيمية للذكاء الاصطناعي متأثرة بالنهج الأوروبي. يجري معهد سلامة الذكاء الاصطناعي في المملكة المتحدة تقييمات مخاطر للنماذج المتقدمة. يستخدم إطار حوكمة الذكاء الاصطناعي في سنغافورة نهجاً قائماً على المخاطر مشابهاً لنظام تصنيف الاتحاد الأوروبي. يشترك مشروع قانون الذكاء الاصطناعي والبيانات الكندي في تركيز الاتحاد الأوروبي على الأنظمة عالية التأثير.
بالنسبة لشركات التقنية متعددة الجنسيات، أصبح قانون الذكاء الاصطناعي الأوروبي المعيار الفعلي للامتثال — البناء وفق المعايير الأوروبية والنشر عالمياً غالباً ما يكون أكثر كفاءة من الحفاظ على أنظمة امتثال منفصلة لكل ولاية قضائية.
جدل التصنيف
أثار نظام تصنيف المخاطر العالية جدلاً كبيراً في الصناعة. يرى المنتقدون أن فئات الملحق الثالث الواسعة تلتقط أنظمة يتفاوت فيها المخاطر الفعلية بشكل هائل — أداة فرز سير ذاتية بسيطة ونظام قرار توظيف مستقل معقد يواجهان نفس العبء التنظيمي رغم ملفات مخاطر مختلفة جذرياً.
تمتلك المفوضية الأوروبية صلاحية تحديث تصنيف المخاطر العالية من خلال أعمال مفوضة، ويُتوقع أن توضح توجيهات مستمرة من مكتب الذكاء الاصطناعي الحالات الحدودية. لكن بالنسبة لأغسطس 2026، يجب على المؤسسات التصنيف بناءً على نص الملحق الثالث الحالي — انتظار التوضيحات ليس استراتيجية امتثال.
الأسئلة الشائعة
هل ينطبق قانون الذكاء الاصطناعي الأوروبي على الشركات خارج أوروبا؟
نعم. تنطبق اللائحة على أي مقدم يطرح نظام ذكاء اصطناعي في السوق الأوروبية أو يشغّله في الاتحاد الأوروبي، بغض النظر عن مكان تأسيس المقدم. تنطبق أيضاً على مستخدمي أنظمة الذكاء الاصطناعي الموجودين في الاتحاد الأوروبي وعلى المقدمين والمستخدمين خارج الاتحاد الأوروبي عندما تُستخدم مخرجات أنظمتهم داخل الاتحاد. يجب على الشركات الجزائرية التي تبيع منتجات أو خدمات مدعومة بالذكاء الاصطناعي لعملاء أوروبيين الامتثال.
ما الفرق بين الذكاء الاصطناعي المحظور وعالي المخاطر بموجب اللائحة؟
أنظمة الذكاء الاصطناعي المحظورة (المادة 5) ممنوعة كلياً — تشمل التقييم الاجتماعي من قبل الحكومات، والتعرف البيومتري في الوقت الفعلي في الأماكن العامة (مع استثناءات محدودة)، والذكاء الاصطناعي المتلاعب الذي يستغل نقاط الضعف. الأنظمة عالية المخاطر (الملحق الثالث) مسموح بها لكن يجب أن تستوفي متطلبات امتثال صارمة: إدارة المخاطر، وحوكمة البيانات، والتوثيق التقني، والرقابة البشرية، ومعايير الدقة والمتانة، وتقييم المطابقة قبل الطرح في السوق.
كم تكلف الامتثال لقانون الذكاء الاصطناعي الأوروبي؟
تتفاوت التكاليف بشكل كبير حسب تعقيد النظام ونضج المؤسسة. قدّر تقييم الأثر للمفوضية الأوروبية تكاليف الامتثال لأنظمة المخاطر العالية بين 6,000 و7,000 يورو لإجراء تقييم المطابقة، بالإضافة إلى التكاليف المستمرة لإدارة المخاطر وصيانة التوثيق ومراقبة ما بعد السوق. ومع ذلك، بالنسبة لأنظمة الذكاء الاصطناعي المعقدة التي تتطلب توثيقاً تقنياً كبيراً واختبارات، يمكن أن تصل تكاليف الامتثال الإجمالية إلى مئات الآلاف من اليورو، خاصة للنظام الأول الذي يتم تقييمه.
المصادر والقراءات الإضافية
- EU AI Act Implementation Timeline — AI Act Portal
- Article 6: Classification Rules for High-Risk AI Systems — AI Act Portal
- EU AI Act 2026 Updates: Compliance Requirements — Legal Nodes
- The EU AI Act: 6 Steps to Take Before August 2026 — Orrick
- EU AI Act 2026 Compliance Guide — Secure Privacy
- Timeline for Implementation of the EU AI Act — AI Act Service Desk






