ما الذي تغيّر في 7 مايو 2026
الاتفاق المؤقت المُبرَم بين البرلمان الأوروبي والمجلس في 7 مايو 2026 — المُسمّى رسمياً Omnibus الرقمي للذكاء الاصطناعي — ليس استبداداً للائحة الذكاء الاصطناعي الأوروبية بل حزمة تعديلات مُستهدَفة تُعيد تصميم التزامات محددة داخل القانون القائم. وفقاً لتحليل NicFab لاتفاق 7 مايو، يعالج الاتفاق ستة مجالات: تواريخ التطبيق، وتقييم المطابقة للملحق I، وتعريف مكون السلامة، وتوسيع اكتشاف التحيز، وتخفيف العبء على الشركات الصغيرة والمتوسطة والشركات الصغيرة ذات الرسملة المتوسطة، وصلاحيات تطبيق GPAI.
أبرز الإضافات هي: حظر ثلاثي على أنظمة الذكاء الاصطناعي التي تولّد صوراً حميمة جنسية لأشخاص قابلين للتحديد دون موافقة؛ وتوسيع صلاحيات إشراف مكتب الذكاء الاصطناعي لتشمل أنظمة الذكاء الاصطناعي المبنية فوق نماذج GPAI؛ وتأجيل الموعد النهائي لأنظمة الملحق III عالية المخاطر من 2024 إلى 2 ديسمبر 2027.
حظر التزييف العميق وأدوات التعرية: ما يشمله وما لا يشمله
يستهدف الحظر الجديد أنظمة الذكاء الاصطناعي التي “تُغيّر أو تتلاعب أو تولّد اصطناعياً صوراً أو مقاطع مرئية واقعية تُصوّر أنشطة جنسية صريحة أو الأجزاء الحميمة من شخص قابل للتحديد” دون موافقة. يسري الحظر على ثلاثة مستويات: لا يحق للمزودين طرح هذه الأنظمة في السوق، ولا للمُستخدِمين استخدامها لتوليد محتوى محظور، ويُصنَّف النظام ذاته ضمن فئة المخاطر غير المقبولة. الموعد النهائي للامتثال هو 2 ديسمبر 2026.
يُشير تحليل Slaughter and May للموقف السابق للبرلمان إلى أن الحظر يشمل “أدوات التعرية” — الأدوات المصمَّمة تحديداً لتوليد صور حميمة غير تراضية — ومواد الاعتداء الجنسي على الأطفال المولّدة بالذكاء الاصطناعي. الموعد النهائي للامتثال هو 2 ديسمبر 2026، وهو ما يختلف عن مولّدات الصور ذات الأغراض العامة ذات التصفية الكافية.
يعالج الحظر ثغرةً في إطار المادة 5 الأصلي الذي كان يعتمد على التطبيق عبر اللائحة العامة لحماية البيانات GDPR والقانون الجنائي وقانون الخدمات الرقمية DSA. تُنشئ الحكم الجديد حظراً واحداً على مستوى النموذج مع عقوبات تصل إلى 35 مليون يورو أو 7% من حجم مبيعات سنوي عالمي.
مساءلة GPAI: صلاحيات مكتب الذكاء الاصطناعي الموسّعة
يُوسّع اتفاق Omnibus صلاحيات إشراف مكتب الذكاء الاصطناعي لتشمل أنظمة الذكاء الاصطناعي المبنية فوق نماذج GPAI عندما تُظهر هذه الأنظمة مخاطر منهجية. وفقاً لمتتبع تنفيذ لائحة الذكاء الاصطناعي الأوروبية، يخضع مزودو GPAI لالتزامات أساسية منذ 2 أغسطس 2025: الاحتفاظ بملف تقني خاص، ونشر ملخص حقوق النشر، وتقديم بطاقات النموذج للعملاء، وإثبات الامتثال لحقوق النشر الأوروبية.
إعلان
أربعة إشارات امتثال لفرق الذكاء الاصطناعي في المؤسسات
إشارة 1: 2 ديسمبر 2026 هو الموعد النهائي الثابت لالتزامين متمايزين
ينشئ اتفاق Omnibus موعدَين نهائيَّين منفصلَين في 2 ديسمبر 2026 يتطلبان إجراءات امتثال مختلفة: حظر أنظمة التعرية/NCII يُلزم مزودي الأنظمة المحظورة بسحبها من السوق الأوروبية، ومتطلب تمييز المحتوى المولّد بالذكاء الاصطناعي (العلامات المائية) يُطبَّق أيضاً من 2 ديسمبر 2026.
إشارة 2: تمديد الموعد النهائي للملحق III يُغيّر جدولك الزمني لأنظمة المخاطر العالية
يوثّق شرح لائحة الذكاء الاصطناعي الأوروبية من Decode the Future أن الملحق III يشمل الأنظمة عالية المخاطر في القياسات الحيوية وإنفاذ القانون والتعليم والتوظيف. يُوفّر التمديد من 2024 إلى 2 ديسمبر 2027 عاماً إضافياً — استخدمه لبناء البنية التحتية للتوثيق بدلاً من التعامل مع 2027 كأجل بعيد.
إشارة 3: توسيع اكتشاف التحيز يؤثر على جميع المزودين والمُستخدِمين
يُوسّع اتفاق Omnibus التزامات اكتشاف التحيز — المقتصرة سابقاً على الأنظمة عالية المخاطر — لتشمل جميع مزودي الذكاء الاصطناعي ومُستخدِميه بموجب معيار “الضرورة القصوى”. هذا يعني أن كل مؤسسة تستخدم أدوات ذكاء اصطناعي تعالج بيانات شخصية يجب أن تُقيّم ما إذا كانت هذه الأدوات تُدخل تحيزاً تمييزياً.
إشارة 4: تخفيف عبء الشركات الصغيرة ذات الرسملة المتوسطة يُقلص عبء الامتثال على الفرق المتوسطة
امتدت أحكام التخفيف للشركات الصغيرة والمتوسطة في اللائحة الأصلية لتشمل “الشركات الصغيرة ذات الرسملة المتوسطة”. إذا كانت مؤسستك تقع في هذه الفئة (عادةً 250-1500 موظف)، فقد تتأهل لمسار امتثال موسَّع.
ما يجب على فرق الذكاء الاصطناعي في المؤسسات فعله قبل ديسمبر 2026
1. تدقيق محفظة منتجات الذكاء الاصطناعي بالنسبة للالتزامات الثلاثة لديسمبر 2026
الموعد النهائي في 2 ديسمبر 2026 هو نقطة تفتيش امتثال لمجموعتين متمايزتين من الالتزامات. أولاً: هل أي منتج في محفظتك يولّد صوراً حميمة غير تراضية أو مصمَّم تحديداً لذلك؟ إذا كانت الإجابة بنعم، فيجب سحبه من السوق الأوروبية قبل 2 ديسمبر 2026 وإلا مواجهة غرامات تصل إلى 35 مليون يورو أو 7% من حجم المبيعات العالمي. ثانياً: هل بنية توليد المحتوى لديك تُنتج علامات مائية قابلة للكشف على الصور والصوت والفيديو؟ يُؤكّد تحليل NicFab للاتفاق المؤقت المؤرخ في 7 مايو أن العلامات المائية التزام منفصل في 2 ديسمبر 2026 — غير مُدمَج مع حظر أدوات التعرية. عالج هذين الالتزامين كمسارَي امتثال مستقلَّين.
2. تقييم الأنظمة المبنية على GPAI للكشف عن تعرضها لمخاطر منهجية في ظل الصلاحيات الموسّعة لمكتب الذكاء الاصطناعي
إذا كانت مؤسستك تبني تطبيقات ذكاء اصطناعي فوق نماذج GPAI — GPT-4 أو Claude أو Gemini أو Mistral — فإن مكتب الذكاء الاصطناعي يمتلك الآن صلاحية إشراف موسّعة على نظامك، لا على مزود النموذج فحسب. عتبة تدخل المكتب هي الخطر المنهجي: الأدوات عالية الحجم المُستخدَمة لقرارات الموارد البشرية وتسجيل الائتمان والكشف عن الاحتيال وخدمات القطاع العام تواجه أكبر قدر من التعرض. ينبغي لمهندسي بنية الذكاء الاصطناعي توثيق النطاق وحالة الاستخدام وملف المخاطر لكل تطبيق مبني على GPAI والاحتفاظ بهذا التوثيق. الأنظمة غير الموثقة هي الأكثر عرضةً للخطر في أي تدقيق تنظيمي.
3. توسيع مراجعات اكتشاف التحيز لتشمل جميع أدوات الذكاء الاصطناعي لا الأنظمة عالية المخاطر فحسب
يسري توسيع اكتشاف التحيز في اتفاق Omnibus على جميع مزودي الذكاء الاصطناعي ومُستخدِميه بموجب معيار “الضرورة القصوى” — لا على أصحاب تصنيفات الأنظمة عالية المخاطر حصراً. يُنشئ هذا خطاً أساسياً جديداً للامتثال: كل مؤسسة تستخدم أدوات ذكاء اصطناعي تعالج بيانات شخصية يجب أن تُقيّم ما إذا كانت تُدخل تحيزاً تمييزياً، حتى لو كان النظام خارج الإطار عالي المخاطر سابقاً. معيار “الضرورة القصوى” متناسب — الالتزام هو التقييم والتوثيق لا بناء برامج اختبار شاملة لكل أداة. ابدأ بأنظمة الذكاء الاصطناعي التي تخدم أكبر عدد من المستخدمين أو القرارات الأعلى مخاطر، وأنشئ مسار توثيق لتقييم التحيز يتحمّل تدقيق مكتب الذكاء الاصطناعي.
ما يأتي بعد ذلك في التقويم التنظيمي للذكاء الاصطناعي بالاتحاد الأوروبي
الاتفاق المؤقت لا يزال مؤقتاً — الاعتماد الرسمي مُستهدَف قبل 2 أغسطس 2026. بعد الاعتماد الرسمي، يسري تقويم الامتثال التالي: 2 ديسمبر 2026 (حظر التعرية + العلامات المائية)؛ 2 ديسمبر 2027 (أنظمة الملحق III عالية المخاطر)؛ 2 أغسطس 2028 (مكونات السلامة في الملحق I).
الأسئلة الشائعة
هل يسري حظر التزييف العميق الوارد في Omnibus ذكاء اصطناعي الاتحاد الأوروبي على مولّدات الصور ذات الأغراض العامة كـ DALL-E أو Midjourney؟
لا. يستهدف الحظر أنظمة الذكاء الاصطناعي المصمَّمة تحديداً لتوليد صور حميمة غير تراضية (NCII) — بما فيها أدوات التعرية ومواد الاعتداء الجنسي على الأطفال المولّدة بالذكاء الاصطناعي. مولّدات الصور ذات الأغراض العامة التي قد تُنتج نظرياً محتوى حميماً لكنها غير مصمَّمة لهذا الغرض تحديداً وتُطبّق تصفية المحتوى، لا يشملها الحظر على مستوى النموذج.
ماذا يعني توسيع صلاحيات مكتب الذكاء الاصطناعي على الأنظمة المبنية فوق GPAI لمطوري تطبيقات المؤسسات؟
يعني أن المؤسسات التي تبني تطبيقات ذكاء اصطناعي فوق نماذج GPAI تواجه إشرافاً محتملاً من مكتب الذكاء الاصطناعي إذا أظهرت تطبيقاتها مخاطر منهجية على نطاق واسع. يجب على الفرق التي تبني أدوات ذكاء اصطناعي عالية الحجم للقرارات الخاصة بالموارد البشرية أو تسجيل الائتمان أو الكشف عن الاحتيال تقييم ما إذا كان نطاق نظامها وحالة استخدامه يخلقان تعرضاً لمخاطر منهجية.
كيف يُغيّر توسيع اكتشاف التحيز متطلبات الامتثال لأدوات الذكاء الاصطناعي التي لم تكن عالية المخاطر سابقاً؟
يُوسّع اتفاق Omnibus التزامات اكتشاف التحيز لتشمل جميع مزودي الذكاء الاصطناعي ومُستخدِميه بموجب معيار “الضرورة القصوى”. بالنسبة للمؤسسات التي تستخدم أدوات ذكاء اصطناعي في سياقات غير عالية المخاطر، يخلق هذا التزاماً أساسياً جديداً: تقييم ما إذا كانت الأداة تُدخل تحيزاً تمييزياً، وتوثيق منهجية التقييم، وتطبيق تدابير التخفيف حين يُعثَر على تحيز.
—
المصادر والقراءات الإضافية
- Omnibus الرقمي للذكاء الاصطناعي: الاتفاق المؤقت المؤرخ في 7 مايو 2026 — NicFab Blog
- تحديث Omnibus ذكاء اصطناعي: موقف البرلمان بما فيه حظر أدوات التعرية — Slaughter and May
- الجدول الزمني لتنفيذ لائحة الذكاء الاصطناعي الأوروبية — Artificial Intelligence Act EU
- لائحة الذكاء الاصطناعي الأوروبية: 7 مستويات مخاطر وعقوبات وجدول 2026 — Decode the Future
- ما الذي يُغيّره اتفاق Omnibus الذكاء الاصطناعي الأوروبي للائحة — Tech Policy Press
- المشرّعون الأوروبيون يتفقون على تعديلات لائحة الذكاء الاصطناعي بما فيها حظر التزييف العميق الجنسي — MLex
















