لماذا يُعدّ 2 أغسطس 2026 الموعد الذي يهم فعلاً
جرى تطبيق قانون الذكاء الاصطناعي الأوروبي على مراحل منذ فبراير 2025، لكن 2 أغسطس 2026 هو التاريخ الذي تصبح فيه اللائحة قابلة للتطبيق جوهرياً على معظم المؤسسات. في ذلك اليوم، تدخل التزامات الفصل الثالث الخاصة بأنظمة الذكاء الاصطناعي عالية الخطورة المدرجة في الملحق الثالث حيز التنفيذ — وهي الفئة التي تشمل التعرف البيومتري، وإدارة البنية التحتية الحيوية، والتعليم والتدريب المهني، والتوظيف وإدارة العاملين، والوصول إلى الخدمات الأساسية (الائتمان، التأمين، المزايا الاجتماعية)، وإنفاذ القانون، والهجرة ومراقبة الحدود، وإدارة العدالة.
هذه شريحة امتثال أكبر بكثير من العدد الصغير من الشركات المتأثرة بحظر 2 فبراير 2025 للممارسات ذات الخطورة غير المقبولة. أي مؤسسة تستخدم الذكاء الاصطناعي لفرز السير الذاتية، أو تقييم طلبات القروض، أو توجيه المرافق، أو تصحيح الامتحانات، أو مراقبة العاملين، أو فرز المرضى، أو التحقق من الهويات على الحدود ستدخل ضمن النطاق — سواء كانت “مزوداً” (بنت النظام) أو “منشراً” (وضعته في الخدمة).
في نوفمبر 2025، اقترحت المفوضية الأوروبية Digital Omnibus حول الذكاء الاصطناعي يؤجل التزامات الملحق الثالث إلى 2 ديسمبر 2027، مع تأجيل أنظمة سلامة المنتجات في الملحق الأول إلى 2 أغسطس 2028. الاقتراح يتقدم عبر البرلمان الأوروبي والمجلس، لكنه لم يُعتمد بعد. تقرير لجنتي IMCO/LIBE المشترك الصادر في مارس 2026 يتوافق مع المجلس بشأن مواعيد مؤجلة ثابتة، لكن موافقة المشرعين لا تزال معلقة. حتى يصبح Digital Omnibus قانوناً، يظل موعد أغسطس 2026 الأصلي ملزماً قانوناً.
هيكل العقوبات: لماذا يهتم المدراء الماليون
المادة 99 من قانون الذكاء الاصطناعي تضع نظام عقوبات من ثلاث شرائح يجعل غرامات GDPR تبدو متواضعة:
- 35 مليون يورو أو 7% من إجمالي حجم الأعمال السنوي العالمي (أيهما أعلى) لانتهاك قواعد الذكاء الاصطناعي المحظور في المادة 5
- 15 مليون يورو أو 3% من حجم الأعمال لانتهاكات التزامات الأنظمة عالية الخطورة (المواد 8-15)، أو واجبات الشفافية، أو قواعد نماذج الذكاء الاصطناعي للأغراض العامة
- 7.5 مليون يورو أو 1% من حجم الأعمال لتقديم معلومات غير صحيحة أو ناقصة أو مضللة للسلطات
بالنسبة للمؤسسات الصغيرة والمتوسطة والشركات الناشئة، تُحدَّد الغرامات بـالأدنى من المبلغ باليورو أو النسبة المئوية — رحمة صغيرة. أما الشركات المتعددة الجنسيات الكبرى التي تدر مليارات من الإيرادات العالمية، فإن الحد الأقصى المبني على النسبة المئوية يعني أن إجراء إنفاذ واحداً قد يتقزم أمامه أي غرامة صدرت بموجب GDPR حتى الآن.
قائمة الامتثال: عشرة أمور يجب إنجازها بحلول 2 أغسطس 2026
استناداً إلى المتطلبات التشغيلية في المواد 8-15، والملحق الرابع، وإطار تقييم الامتثال، هذه هي القائمة العملية التي ينبغي لكل مؤسسة معرّضة لأحكام الملحق الثالث أن تعمل عليها الآن:
- جرد أنظمة الذكاء الاصطناعي. رسم خريطة لكل نظام ذكاء اصطناعي قيد الاستخدام أو التطوير، وتصنيف كل منها وفق حالات استخدام الملحق الثالث، ووضع علامات على المرشحين عاليي الخطورة. تقلل معظم المؤسسات هذا التقدير بنسبة 30-50% في المحاولة الأولى.
- إنشاء لجنة حوكمة الذكاء الاصطناعي. هيئة متعددة الوظائف تضم القانونيين والخصوصية وأمن تكنولوجيا المعلومات وعلوم البيانات والموارد البشرية ومالكي الأعمال. تعيين سلطة اتخاذ القرار ومسارات التصعيد.
- إنشاء نظام إدارة مخاطر موثّق (المادة 9) يعمل باستمرار عبر دورة حياة النظام — وليس تقييم مخاطر لمرة واحدة.
- تطبيق ضوابط حوكمة البيانات (المادة 10). يجب أن تكون مجموعات بيانات التدريب والتحقق والاختبار ذات صلة وتمثيلية وخالية من الأخطاء قدر الإمكان. توثيق مصدر البيانات وخطوات التخفيف من التحيز.
- صياغة التوثيق الفني (المادة 11، الملحق الرابع). وصف النظام، ومنهجية التطوير، والبنية، ومتطلبات البيانات، وضوابط المخاطر، ومقاييس الأداء — جميعها تُصان طوال عمر النظام، لا تُجمَّد عند الإطلاق.
- تفعيل التسجيل التلقائي للأحداث (المادة 12). يجب أن يسجل النظام الأحداث ذات الصلة بتحديد المخاطر والتعديلات الجوهرية. الاحتفاظ بالسجلات لمدة دنيا.
- التصميم للإشراف البشري (المادة 14). يجب أن يكون المشغلون قادرين على فهم المخرجات والتدخل وإلغاء القرارات. بناء واجهة المستخدم وتدفقات العمل، ثم تدريب البشر.
- تلبية معايير الدقة والمتانة والأمن السيبراني (المادة 15). توثيق المقاييس، وإجراء اختبارات هجومية، وسد الثغرات.
- إكمال تقييم الامتثال ووضع علامة CE. بالنسبة لمعظم أنظمة الملحق الثالث، هذا تقييم داخلي بموجب الملحق السادس — لكنه لا يزال يتطلب إعلان امتثال رسمياً.
- تسجيل النظام في قاعدة بيانات الاتحاد الأوروبي قبل طرحه في السوق أو وضعه في الخدمة.
للمنشرين (العملاء الذين يستخدمون ذكاءً اصطناعياً عالي الخطورة بنته جهات أخرى) التزامات أخف لكنها ليست تافهة: رصد أداء النظام، والاحتفاظ بالسجلات، وإجراء تقييمات أثر الحقوق الأساسية لحالات استخدام القطاع العام والخدمات الأساسية، وإبلاغ الأفراد المتأثرين بقرارات الذكاء الاصطناعي.
إعلان
ما ينبغي للمؤسسات خارج الاتحاد الأوروبي فعله
قانون الذكاء الاصطناعي خارج نطاق الإقليم. إذا كان مخرج نظام الذكاء الاصطناعي الخاص بك يُستخدم في الاتحاد الأوروبي — حتى لو كانت شركتك مقرها الجزائر أو ساو باولو أو Singapore — فأنت ضمن النطاق. على المزودين من خارج الاتحاد الأوروبي تعيين ممثل مُفوَّض مقره الاتحاد الأوروبي قبل طرح الأنظمة في السوق.
بالنسبة للمؤسسات الجزائرية التي تستهدف عملاء أوروبيين، الآثار العملية مباشرة: إذا كنت تبني أداة HR-tech، أو واجهة برمجة تطبيقات لتقييم الائتمان، أو منتجاً بيومترياً مخصصاً للنشر في الاتحاد الأوروبي، فإن أغسطس 2026 (أو ديسمبر 2027 إذا مرّر Omnibus) هو تاريخ جاهزيتك للإطلاق — وليس شأناً تنظيمياً بعيداً.
فجوة المعايير
يوجد اقتراح التأجيل الصادر عن المفوضية جزئياً لأن المعايير الأوروبية المتناسقة التي تُشغّل المتطلبات الغامضة لقانون الذكاء الاصطناعي (ماذا تعني “تمثيلية بشكل كافٍ” لبيانات التدريب بطريقة قابلة للقياس؟) لا تزال قيد الصياغة من قبل CEN-CENELEC. تعمل العديد من فرق الامتثال من مسودات المعايير، وإرشادات المفوضية، وأسئلة وأجوبة الهيئات التنظيمية بدلاً من نص نهائي. توقع مزيداً من التوضيحات في الربعين الثاني والثالث من 2026، وخصص ميزانية لإعادة العمل.
خلاصة القول
لا تراهن على تأجيل Digital Omnibus. ابنِ على أساس 2 أغسطس 2026، وتعامل مع أي تمديد كهدية تسمح لك بالتقوية بدلاً من التسرّع. المؤسسات التي ستكون الأفضل حالاً هي تلك التي بدأت أنظمة إدارة المخاطر وتدفقات التوثيق في 2025، وتجري الآن تقييمات امتثال تجريبية، وعيّنت ممثلين أوروبيين وأطلقت برامج تدريبية.
الامتثال مكلف. الإنفاذ أكثر كلفة. غرامة قدرها 35 مليون يورو هي أعلى طريقة ضجيجاً لتعلّم هذا الدرس.
الأسئلة الشائعة
هل ينطبق قانون الذكاء الاصطناعي الأوروبي على الشركات خارج الاتحاد الأوروبي كالشركات الناشئة الجزائرية؟
نعم. القانون خارج نطاق الإقليم. إذا كان مخرج نظام الذكاء الاصطناعي الخاص بك يُستخدم في الاتحاد الأوروبي — حتى لو كان مقر شركتك في مكان آخر — فأنت ضمن النطاق. يجب على المزودين من خارج الاتحاد تعيين ممثل مُفوَّض مقره الاتحاد الأوروبي قبل طرح نظام عالي الخطورة في السوق.
ماذا يحدث إذا أجّل Digital Omnibus الموعد إلى ديسمبر 2027؟
الاقتراح لم يُعتمد بعد. حتى يوافق المشرّعون — البرلمان الأوروبي والمجلس — يظل موعد 2 أغسطس 2026 الأصلي ملزماً قانوناً. تبني المؤسسات الحكيمة على أساس أغسطس 2026 وتتعامل مع أي تأجيل كفترة إضافية للتقوية.
ما الحد الأقصى للعقوبة بموجب قانون الذكاء الاصطناعي؟
تضع المادة 99 ثلاث شرائح: 35 مليون يورو أو 7% من حجم الأعمال العالمي لانتهاكات الذكاء الاصطناعي المحظور؛ 15 مليون يورو أو 3% لانتهاكات الأنظمة عالية الخطورة؛ و7.5 مليون يورو أو 1% للمعلومات غير الصحيحة. تُطبَّق النسبة المئوية إذا كان المبلغ أعلى — مما يعني أن شركة متعددة الجنسيات كبرى قد تواجه غرامة تتقزم أمامها أي عقوبة صدرت بموجب GDPR حتى الآن.
المصادر والقراءات الإضافية
- Implementation Timeline — EU Artificial Intelligence Act
- Article 99: Penalties — EU Artificial Intelligence Act
- Annex III: High-Risk AI Systems Referred to in Article 6(2)
- European Commission proposes delaying full implementation of AI Act to 2027 — Euronews
- EU Digital Omnibus Proposes Delay of AI Compliance Deadlines — OneTrust
- EU AI Act 2026 Updates: Compliance Requirements and Business Risks — Legal Nodes






