لماذا يبدو فشل 28 أبريل أكثر أهمية مما يبدو عليه
اقترحت المفوضية الأوروبية في 19 نوفمبر 2025 حزمة Omnibus للذكاء الاصطناعي، وكان هدفها تأجيل الالتزامات المتعلقة بالامتثال للذكاء الاصطناعي عالي الخطورة — المقررة أصلاً في الثاني من أغسطس 2026 — إلى الثاني من ديسمبر 2027 للأنظمة المستقلة وإلى الثاني من أغسطس 2028 للذكاء الاصطناعي المدمج في المنتجات الخاضعة للتنظيم. بالنسبة لمعظم المؤسسات، عمل هذا التأجيل المقترح كفترة سماح غير رسمية: كانت استعدادات الامتثال تسير بوتيرة متأنية في ظل افتراض أن التمديد سيُقرَّ قبل موعد أغسطس.
كانت مفاوضات 28 أبريل الجولة الثانية من المفاوضات السياسية بين البرلمان الأوروبي والمجلس والمفوضية. وقد انهارت. كانت نقطة الخلاف الجوهرية تتمحور حول ما إذا كانت أنظمة الذكاء الاصطناعي المدمجة في المنتجات الخاضعة للتنظيم — كالأجهزة الطبية وأنظمة سلامة الألعاب والآلات الصناعية والمركبات المتصلة — يجب إعفاؤها من متطلبات لائحة الذكاء الاصطناعي لأنها تندرج أصلاً ضمن لوائح السلامة القطاعية. دفع البرلمان الأوروبي وكبرى المجموعات الصناعية نحو هذه الإعفاءات، في حين رفضها المجلس باعتبارها تقليلاً للتنظيم لا تبسيطاً له.
جُدِّدت جلسة ثالثة لمنتصف مايو. المشكلة الجوهرية: حتى لو توصلت الجلسة الثالثة إلى اتفاق على صياغة الإعفاءات، فإن الإجراء التشريعي الرسمي يستلزم النشر في الجريدة الرسمية للاتحاد الأوروبي ومهلة إشعار دنيا قبل دخول الأحكام الجديدة حيز التنفيذ. وخلص خبراء القانون، وفقاً لما أعلنه مكتب DLA Piper في بروكسل في أبريل 2026، إلى أن الاعتماد الرسمي قبل الثاني من أغسطس أمر «غير عملي». وبذلك تُصبح لائحة الذكاء الاصطناعي الأصلية، كما هي مكتوبة، سارية في الثاني من أغسطس 2026 على الأنظمة عالية الخطورة في الملحق الثالث — دون أي تأجيل Omnibus سارٍ.
أكدت المفوضية الأوروبية ذلك في توجيهاتها الصادرة في أبريل 2026، إذ طلبت من المنظمات «مواصلة استعدادات الامتثال وفقاً لموعد الثاني من أغسطس 2026 القائم، بدلاً من انتظار التأجيل المقترح».
ما الذي يتطلبه الملحق الثالث فعلياً قبل الثاني من أغسطس
يغطي تصنيف عالي الخطورة في الملحق الثالث ثماني فئات يُستخدم فيها الذكاء الاصطناعي لاتخاذ قرارات تؤثر بشكل ملموس في الأفراد. بالنسبة للمؤسسات في القطاع الخاص، تُمثّل الذكاء الاصطناعي في التوظيف والذكاء الاصطناعي في الخدمات المالية أوسع الفئتين نطاقاً.
الذكاء الاصطناعي في التوظيف (الملحق الثالث، الفئة 4): كل نظام ذكاء اصطناعي يُستخدم في التوظيف واختيار المرشحين وفرز السير الذاتية وتقييم الأداء وتوزيع المهام أو مراقبتها وقرارات الترقية أو الإنهاء ومراقبة العمال — إذا أثّرت مخرجاته في قرارات التوظيف — يُعدّ عالي الخطورة. يشمل ذلك الأنظمة الآلية لتتبع الطلبات وتقييم المقابلات بمساعدة الذكاء الاصطناعي وإدارة الأداء التنبؤية ومنصات تحليل القوى العاملة.
الذكاء الاصطناعي في الخدمات المالية (الملحق الثالث، الفئة 5): تصنيف الائتمان وتقييم مخاطر التأمين وتحديد أهلية الاستحقاقات جميعها عالية الخطورة. نموذج الذكاء الاصطناعي في البنك الذي يُقيّم طلبات القروض عالي الخطورة. نموذج التسعير القائم على التتبع لدى شركة التأمين عالي الخطورة إذا كان يؤثر في قرارات الأهلية.
القياسات الحيوية (الملحق الثالث، الفئة 1): كل نظام ذكاء اصطناعي يستخدم التعرف البيومتري أو الاستدلال العاطفي في السياقات الآنية أو المؤجلة عالي الخطورة (مع استثناءات ضيقة). يشمل ذلك التعرف على الوجوه في أنظمة التحكم في الوصول إلى مباني الشركات وأدوات الاستدلال العاطفي في خدمة العملاء وأنظمة التحقق من الهوية.
يجب على المؤسسات إكمال ما يلي لكل نظام عالي الخطورة — قبل الثاني من أغسطس 2026:
- نظام إدارة المخاطر: إجراءات موثقة لتحديد المخاطر وتقديرها وتقييمها والتخفيف منها على مدار دورة الحياة الكاملة
- الوثائق التقنية: مواصفات كاملة للنظام تشمل التصميم وبيانات التدريب ومنهجية الاختبار والمراقبة بعد النشر
- التسجيل التلقائي: سجلات تشغيل ثابتة لمدة لا تقل عن 6 أشهر تتيح إعادة بناء الحوادث
- بروتوكول الإشراف البشري: موظفون مُعيَّنون بصلاحية مراقبة نظام الذكاء الاصطناعي والتدخل فيه والتغلب عليه
- تقييم المطابقة: تقييم ذاتي لمعظم الفئات؛ طرف ثالث إلزامي لأنظمة التعرف البيومتري
- التسجيل في قاعدة البيانات الأوروبية: تسجيل عام قبل النشر عبر قاعدة البيانات المعادلة لـ EUDAMED
إعلان
خارطة طريق للامتثال على مدى 12 أسبوعاً لفرق المؤسسات
1. إجراء تدقيق الجرد وفق الملحق الثالث الآن — وليس في يوليو
ابدأ بجرد شامل لجميع أنظمة الذكاء الاصطناعي التي تنشرها مؤسستك أو تقدمها لآخرين. ضع كل نظام في مقابل الفئات الثماني للملحق الثالث. تُقلل كثير من المنظمات بشكل ملحوظ من تعرضها للملحق الثالث لأن الذكاء الاصطناعي مدمج في برامج لم تبنها هي نفسها — منصة الموارد البشرية من جهة خارجية المزودة بالفرز بالذكاء الاصطناعي، ونظاب البنك الأساسي المزود بتصنيف الائتمان بالذكاء الاصطناعي، ونظام إدارة المبنى المزود بالتحليل السلوكي. ضع في خارطتك كل نظام، بما في ذلك الأدوات الخارجية حيث أنت المنشر.
هذا الجرد ليس عمل شخص واحد. يتطلب مدخلات من الموارد البشرية (ذكاء اصطناعي في التوظيف) والمالية والائتمان (ذكاء اصطناعي في الخدمات المالية) والمرافق (القياسات الحيوية) وأمن المعلومات (الذكاء الاصطناعي في أدوات المراقبة) والشؤون القانونية. تكتشف كثير من المنظمات خلال هذا التدقيق من ثلاثة إلى خمسة أنظمة عالية الخطورة لم تُحددها سابقاً. تشير توجيهات IAPP الصادرة في أبريل 2026 إلى أن هذا الجرد يستغرق أسبوعين للمنظمات متوسطة الحجم وأربعة إلى ستة أسابيع للشركات متعددة الجنسيات الكبيرة.
2. التمييز بين التزامات المزود والتزامات المنشر
تُنشئ لائحة الذكاء الاصطناعي التزامات غير متماثلة بحسب ما إذا كنت مزوداً (بنيت نظام الذكاء الاصطناعي) أم منشراً (تستخدم نظام ذكاء اصطناعي من طرف ثالث). يتحمل المزودون العبء الأثقل — إذ يجب عليهم إنتاج الوثائق التقنية وتقييمات المطابقة والتسجيل في قاعدة البيانات الأوروبية قبل طرح النظام في السوق. يجب على المنشرين اتباع تعليمات المزود وتعيين موظفي إشراف مؤهلين ومراقبة انحراف الأداء والإبلاغ عن الحوادث الخطيرة.
بالنسبة لمعظم المؤسسات الكبيرة، يُطبَّق الدوران في آنٍ واحد: أنت منشر للأدوات الخارجية ومزود للأنظمة الداخلية المبنية. لا تفترض أن استخدام منتج ذكاء اصطناعي من بائع يعني أن البائع يتحمل كامل مسؤولية الامتثال. إذا قمت بتخصيص نظام ذكاء اصطناعي خارجي أو ضبطه الدقيق أو تعديله بشكل يُغير غرضه المحدد أو ملفه التعرفي للمخاطر، فإنك تصبح مزوداً لذلك النظام بموجب المادة 25.
3. إيلاء الأولوية لثغرة التوثيق — إنها نمط الفشل الأكثر شيوعاً
وفقاً لتحليل ComplianceHub المنشور في 25 أبريل 2026، العناصر الثلاثة للامتثال الأكثر تأخراً بين المؤسسات التي تستعد لموعد الثاني من أغسطس هي: الوثائق التقنية (ولا سيما منشأ بيانات التدريب ومنهجية الاختبار) وبنية التسجيل التلقائي وبروتوكولات الإشراف البشري. أنظمة إدارة المخاطر وتقييمات المطابقة أكثر تقدماً لأنها مماثلة لأطر ISO 27001 وISO 31000 التي تتبعها كثير من المنظمات فعلاً.
إذا كان عليك تحديد الأولويات: التوثيق والتسجيل هما العنصران الأسرع تصحيحاً. يمكن إنتاج الوثائق التقنية لنظام مفهوم جيداً في أربعة إلى ستة أسابيع بموارد داخلية كافية أو مستشار خارجي. التسجيل التلقائي مهمة هندسية تستغرق أسبوعين إلى أربعة أسابيع إذا كانت البنية التحتية تلتقط البيانات ذات الصلة. بروتوكولات الإشراف البشري تتطلب توافقاً بين الموارد البشرية والشؤون القانونية لكن يمكن صياغتها والموافقة عليها في ثلاثة إلى أربعة أسابيع.
سيناريو الفشل: ماذا يعني الثاني من أغسطس دون استعداد
بالنسبة للمنظمات التي لم تكمل تقييمات المطابقة والتسجيل في قاعدة البيانات الأوروبية بحلول الثاني من أغسطس، يُفعَّل آلية تطبيق لائحة الذكاء الاصطناعي فوراً. لا توجد فترة سماح، ولا تخفيض للإفصاح الطوعي، ولا حد أدنى للعتبة قبل أن تتمكن السلطات الوطنية المختصة من التحقيق.
هيكل العقوبات هو:
- ممارسات الذكاء الاصطناعي المحظورة (الملحق الأول): ما يصل إلى 35 مليون يورو أو 7% من حجم الأعمال السنوي العالمي
- انتهاكات الذكاء الاصطناعي عالي الخطورة (عدم امتثال الملحق الثالث): ما يصل إلى 15 مليون يورو أو 3% من حجم الأعمال السنوي العالمي
- معلومات غير صحيحة أو مضللة للسلطات: ما يصل إلى 7.5 مليون يورو أو 1.5%
السيناريو الأعلى مخاطرة للمؤسسات: نشر نظام ذكاء اصطناعي لفرز العمل الذي لم يكمل تقييم المطابقة، مع وثائق تقنية منقوصة، ودون تسجيل ثابت. هذا المزيج — الذي يصف العديد من أنظمة تتبع المتقدمين المنتشرة حالياً — يُعرض المنظمة لغرامات بقيمة 15 مليون يورو أو 3% اعتباراً من الثالث من أغسطس 2026.
قد تُعيد حزمة Omnibus، إن اعتُمدت في نهاية المطاف، هيكلة هذه الالتزامات بأثر رجعي. لكن الحماية بالأثر الرجعي بعد بدء التطبيق غير مضمونة، وتتباين جداول التطبيق بحسب الدول الأعضاء — إذ أشارت ألمانيا وفرنسا وهولندا إلى أنها ستُفعّل سلطات الرقابة على الذكاء الاصطناعي فوراً عند تحقق شرط الثاني من أغسطس.
الأسئلة الشائعة
هل تنطبق لائحة الذكاء الاصطناعي الأوروبية على الشركات الجزائرية التي تبيع برامج ذكاء اصطناعي لعملاء أوروبيين؟
نعم. تنطبق اللائحة خارج الحدود الإقليمية عندما تُطرح أنظمة الذكاء الاصطناعي في السوق الأوروبية أو عندما تؤثر مخرجاتها في المقيمين في الاتحاد الأوروبي، بغض النظر عن مكان تأسيس المزود. الشركة الجزائرية SaaS التي تبيع أداة توظيف مدعومة بالذكاء الاصطناعي لقسم الموارد البشرية في فرنسا هي «مزود» بموجب اللائحة إذا كان النظام ضمن فئات الملحق الثالث. يجب عليها إنتاج الوثائق التقنية وإتمام تقييم المطابقة والتسجيل في قاعدة بيانات الذكاء الاصطناعي الأوروبية قبل أن يتمكن العميل الفرنسي من نشره قانونياً.
ماذا يحدث إذا اعتُمدت حزمة Omnibus للذكاء الاصطناعي الأوروبية بعد الثاني من أغسطس 2026 — هل تحمي بأثر رجعي الشركات غير الممتثلة؟
الحماية بالأثر الرجعي غير مضمونة وتعتمد على الأحكام الانتقالية في Omnibus، التي لا تزال قيد التفاوض. إذا كانت التحقيقات قد بدأت بالفعل وقت الاعتماد الرسمي لـ Omnibus، فمن غير المرجح أن تستفيد المنظمات الخاضعة لتحقيق نشط من الحماية بأثر رجعي. الموقف الآمن قانونياً، اعتباراً من مايو 2026، هو معاملة الثاني من أغسطس باعتباره الموعد الحقيقي للامتثال.
ما الفرق بين الأنظمة عالية الخطورة في الملحق الثالث وممارسات الذكاء الاصطناعي المحظورة في الملحق الأول؟
يغطي الملحق الأول (الممارسات المحظورة) الذكاء الاصطناعي الذي يطرح مخاطر غير مقبولة بغض النظر عن حالة الاستخدام: التسجيل الاجتماعي الجماعي من قِبل السلطات العامة، والتعرف البيومتري عن بُعد في الوقت الحقيقي من قِبل جهات إنفاذ القانون في الأماكن العامة (مع استثناءات ضيقة)، وأنظمة الذكاء الاصطناعي التي تستغل الضعف النفسي. هذه محظورة صراحةً. يغطي الملحق الثالث (عالي الخطورة) الذكاء الاصطناعي في مجالات محددة ذات مخاطر عالية — التوظيف والتعليم والقياسات الحيوية والبنية التحتية الحيوية والخدمات المالية وإنفاذ القانون — وهو مسموح به لكنه خاضع لمتطلبات صارمة: التوثيق والإشراف وتقييم المطابقة والتسجيل. الحد الأقصى للغرامة على انتهاكات الملحق الثالث (15 مليون يورو أو 3%) أقل من الملحق الأول (35 مليون يورو أو 7%) لكنه لا يزال كبيراً.
—
المصادر والقراءات الإضافية
- EU AI Act Omnibus: ما الذي حدث للتو وما الذي يأتي بعده — IAPP
- Omnibus الذكاء الاصطناعي: التأجيل المقترح للالتزامات عالية الخطورة — DLA Piper
- موعد لائحة الذكاء الاصطناعي الأوروبية أغسطس 2026: دليل امتثال الملحق الثالث — ComplianceHub
- فشل اتفاق Omnibus الذكاء الاصطناعي الأوروبي في مفاوضات أبريل 2026 — The Next Web
- النص الرسمي للائحة الذكاء الاصطناعي (اللائحة 2024/1689) — EUR-Lex
















