ما الذي يُفعّله الثاني من أغسطس 2026 فعليًا
يتدرّج تطبيق قانون الذكاء الاصطناعي الأوروبي منذ نشره. سبقت أغسطس 2026 نقطتا تحول رئيسيتان: في 2 فبراير 2025، سرت حظورات أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة. وفي 2 أغسطس 2025، نشطت التزامات البنية التحتية للحوكمة ومتطلبات مزودي نماذج الذكاء الاصطناعي للأغراض العامة (GPAI).
الثاني من أغسطس 2026 هو حيث تنهال قوة القانون على معظم المؤسسات. تصف الجدول الزمني الرسمي للتطبيق هذا التاريخ بأنه “بدء سريان بقية قانون الذكاء الاصطناعي، باستثناء المادة 6(1)”. عمليًا يعني ذلك:
- جميع أنظمة الذكاء الاصطناعي عالية الخطورة في الملحق الثالث يجب أن تستوفي متطلبات الامتثال الكاملة — أنظمة إدارة المخاطر والتوثيق التقني وتقييمات المطابقة والتسجيل في قاعدة البيانات الأوروبية وعلامة CE وآليات الإشراف البشري
- المُشغّلون (deployers) لأنظمة الخطر المرتفع القائمة يجب تطبيق إجراءات المراقبة والتسجيل وإبلاغ الحوادث وإجراء تقييمات الأثر
- يجب أن تتوفر لدى جميع الدول الأعضاء في الاتحاد الأوروبي صناديق تنظيمية تجريبية وطنية نشطة
- يجب على المزودين غير الأوروبيين تعيين ممثل مُفوّض في الاتحاد الأوروبي
الاستثناء الوحيد: تلتزامات المادة 6(1) — التي تشمل أنظمة الذكاء الاصطناعي المُدمجة في منتجات خاضعة لتشريعات قطاعية أوروبية أخرى — تمتد حتى أغسطس 2027.
الفئات الثماني عالية الخطورة في الملحق الثالث
يُحدد الملحق الثالث فئات تطبيقات الذكاء الاصطناعي التي تُفعّل أشد متطلبات القانون صرامةً. كل مؤسسة تنشر الذكاء الاصطناعي في أي من هذه المجالات تحتاج إلى ملف امتثال مكتمل قبل الثاني من أغسطس:
- التعرف البيومتري والتصنيف — الأنظمة الآنية وما بعد الحادثة التي تُحدد الأفراد أو تُصنّفهم بالبيانات البيومترية
- البنية التحتية الحيوية — الذكاء الاصطناعي في شبكات الكهرباء والمياه والغاز والنقل والبنية التحتية للأسواق المالية
- التعليم والتدريب المهني — الذكاء الاصطناعي الذي يُحدد الوصول إلى التعليم، أو يُقيّم الطلاب، أو يُراقبهم خلال الامتحانات
- التوظيف وإدارة الموارد البشرية — الذكاء الاصطناعي في التوظيف والاختيار وتوزيع المهام ومراقبة الأداء أو قرارات الإنهاء
- الوصول إلى الخدمات الخاصة الأساسية والمزايا العامة — تسجيل الائتمان وتقييم مخاطر التأمين والأهلية للاستفادة الاجتماعية
- تطبيق القانون — الذكاء الاصطناعي للتنبؤ بالجريمة وتقييم الأدلة وتقييم المخاطر الفردية في التحقيقات
- الهجرة واللجوء ومراقبة الحدود — الذكاء الاصطناعي في معالجة التأشيرات والتحقق من وثائق السفر وتقييم المخاطر
- إقامة العدل والعمليات الديمقراطية — الذكاء الاصطناعي المساعد في القرارات القضائية أو العمليات الانتخابية
يطال نطاق هذه القائمة كثيرًا من المؤسسات التي لا تعدّ نفسها “شركات ذكاء اصطناعي”. البنك الذي يستخدم نموذج تسجيل ائتماني، وفريق الموارد البشرية الذي يستخدم أداة ذكاء اصطناعي لاستعراض السير الذاتية، والجامعة التي تستخدم مراقبة آلية خلال الامتحانات الإلكترونية — كلها تنشر ذكاءً اصطناعيًا عالي الخطورة من الملحق الثالث وتخضع لنظام الامتثال الكامل.
إعلان
ما يجب على فرق الامتثال المؤسسي إنجازه قبل الثاني من أغسطس
1. إنجاز تصنيف أنظمة الذكاء الاصطناعي وتحديد مستوى المخاطر
قبل أي خطوة امتثال أخرى، يجب تصنيف كل نظام ذكاء اصطناعي في النشر المؤسسي. يشترط القانون أن يتحقق المزودون مما إذا كانت أنظمتهم تندرج ضمن فئات الملحق الثالث. يمكن للمزود الاحتجاج بأن نظامًا من الملحق الثالث لا يستوجب النظام الكامل للمخاطر العالية إذا استطاع “إثبات وتوثيق أن هذا النظام لا يُشكّل خطرًا جسيمًا” — لكن هذا الاستثناء يجب توثيقه لا افتراضه.
التصنيف ليس حدثًا لمرة واحدة. تتطور أنظمة الذكاء الاصطناعي وتتوسع حالات الاستخدام وتتغير سياقات النشر — وكل ذلك يمكن أن يُغيّر تصنيف المخاطر. تحتاج المؤسسات إلى عملية تصنيف قابلة للتكرار تربط قرار التصنيف بحالة الاستخدام المحددة لا بنوع النظام وحده.
2. إنجاز تقييمات المطابقة والتوثيق التقني
بالنسبة لأنظمة الملحق الثالث عالية الخطورة، يُعدّ تقييم المطابقة الآلية الجوهري للامتثال. بحسب نوع النظام، يكون ذلك إما تقييمًا ذاتيًا (لمعظم أنظمة الملحق الثالث) أو تقييمًا من طرف ثالث (لأنظمة التعرف البيومتري). يجب أن يتحقق التقييم من استيفاء النظام للمتطلبات التقنية عبر ستة مجالات: نظام إدارة المخاطر، وحوكمة البيانات، والتوثيق التقني، والشفافية، والإشراف البشري، والدقة/المتانة/الأمن السيبراني.
التوثيق التقني هو قاعدة الأدلة لتقييم المطابقة — ويجب صيانته وتحديثه، لا إنتاجه مرة واحدة عند النشر. المزودون غير الأوروبيين الذين عاملوا متطلبات التوثيق الأوروبية مهمةً مستقبلية يجب أن يعتبروا الثاني من أغسطس موعدًا نهائيًا صارمًا لهذا التأخر.
3. تسجيل الأنظمة عالية الخطورة في قاعدة بيانات الذكاء الاصطناعي الأوروبية
يُنشئ قانون الذكاء الاصطناعي الأوروبي قاعدة بيانات تسجيل إلزامية لأنظمة الذكاء الاصطناعي عالية الخطورة قبل وضعها في السوق الأوروبية. تُديرها مكتب الذكاء الاصطناعي الأوروبي. يستلزم التسجيل: اسم النظام وإصداره، وهوية المزود وممثله الأوروبي، والغرض المقصود، وفئة الملحق الثالث، وحالة الامتثال، وإعلان المطابقة.
التسجيل ليس إيداعًا لمرة واحدة — بل يجب تحديثه عند إجراء تعديلات جوهرية على الأنظمة. المؤسسات ذات نشرات ذكاء اصطناعي متعددة عبر فئات الملحق الثالث قد تحتاج إلى تسجيل عشرات الأنظمة. بناء عملية تسجيل منهجية — تشمل مالكًا مُسمّى لكل نظام مسجّل — أيسر إدارةً من معاملة التسجيل مهمةً قانونية عشوائية.
4. تطبيق أنظمة الإشراف البشري والتسجيل
تُعدّ متطلبات الإشراف البشري لقانون الذكاء الاصطناعي الأوروبي الأكثر تطلبًا تشغيليًا بالنسبة للمؤسسات التي نشرت الذكاء الاصطناعي في سياقات قرار آلية عالية الحجم. المطلوب ليس مراجعة بشرية لكل قرار ذكاء اصطناعي — بل تعيين أفراد مؤهلين يمتلكون الصلاحية والقدرة على مراقبة مخرجات النظام واكتشاف الشذوذات والتدخل عند السلوك غير المتوقع.
بالنسبة للمُشغّلين (لا المزودين فحسب)، يشترط القانون الاحتفاظ بالسجلات المُولَّدة آليًا لمدة ستة أشهر على الأقل. مراجعة بنية السجلات وسياسات الاحتفاظ في مواجهة متطلبات القانون ينبغي إنجازها قبل الثاني من أغسطس.
الصورة الكبرى: من الامتثال إلى نضج حوكمة الذكاء الاصطناعي
الثاني من أغسطس 2026 موعدٌ نهائي للامتثال، وكذلك عتبةٌ لنضج مؤسسي. المؤسسات التي تبني برامج امتثالها بردود فعل — تجمع التوثيق تحت ضغط الموعد النهائي — ستستوفي حرف الاشتراط لكنها لن تبني القدرة الداخلية لحوكمة الذكاء الاصطناعي بمسؤولية مع تكاثر الأنظمة وتطور التنظيمات.
المؤسسات التي تخرج من أغسطس 2026 في أقوى موقع ستكون تلك التي استخدمت عملية الامتثال لبناء بنية تحتية دائمة لحوكمة الذكاء الاصطناعي: إطار تصنيف يتكيف مع تطور الأنظمة، وعملية تقييم مطابقة تمتلكها فرقة متعددة الوظائف، وعملية تسجيل بمالكي أنظمة مُسمَّيين، ونموذج إشراف بشري موثق في عقود النشر.
قانون الذكاء الاصطناعي الأوروبي ليس آخر تنظيم للذكاء الاصطناعي ستواجهه هذه المؤسسات. الاتفاقية الإطارية لمجلس أوروبا تُنشئ التزامات موازية في 50+ ولاية قضائية غير أوروبية. الغرامات القصوى بموجب القانون تبلغ 35 مليون يورو أو 7 % من الإيرادات السنوية العالمية — أرقام تفوق بكثير تكلفة بناء بنية تحتية قوية للامتثال.
الأسئلة الشائعة
أي أنواع أنظمة الذكاء الاصطناعي الأكثر احتمالًا للتأثير على الشركات غير الأوروبية البائعة في السوق الأوروبية؟
أدوات فرز الموارد البشرية، ونماذج تسجيل الائتمان أو المخاطر، وأنظمة توصية المحتوى ذات الأثر الكبير على المستخدم، وأنظمة التحقق من هوية العملاء هي أكثر مُحفّزات الملحق الثالث شيوعًا بالنسبة للموردين غير الأوروبيين. إذا قدّمت شركة غير أوروبية برمجيات ذكاء اصطناعي كخدمة (SaaS) لعملاء أوروبيين ينشرونها في سياقات الملحق الثالث، فإن الشركة غير الأوروبية تُعدّ “مزودًا” بموجب القانون ويجب أن تستوفي التزامات المزود.
ما الغرامة القصوى بموجب قانون الذكاء الاصطناعي الأوروبي، وكيف تُقارن بالـ GDPR؟
تصل الغرامات القصوى لقانون الذكاء الاصطناعي الأوروبي إلى 35 مليون يورو أو 7 % من إجمالي الإيرادات السنوية العالمية للانتهاكات المتعلقة بممارسات الذكاء الاصطناعي المحظورة. لانتهاكات الذكاء الاصطناعي عالي الخطورة، يبلغ السقف 15 مليون يورو أو 3 % من الإيرادات. الحد الأقصى للـ GDPR هو 20 مليون يورو أو 4 % من الإيرادات. بالنسبة للشركات الكبيرة، يتجاوز الحد الأقصى البالغ 7 % لقانون الذكاء الاصطناعي حد الـ 4 % للـ GDPR.
هل ثمة فترة سماح أو تأجيل للموعد النهائي الثاني من أغسطس 2026؟
ناقش البرلمان الأوروبي تأجيلًا إلى ديسمبر 2027 أو أغسطس 2028 لبعض متطلبات الملحق الثالث، لكن هذا التأجيل لم يُعتمد رسميًا حتى الآن. يؤكد الجدول الزمني الرسمي للتطبيق أن الثاني من أغسطس 2026 هو تاريخ البدء. التزامات المادة 6(1) تمتد حتى أغسطس 2027. على المؤسسات التخطيط للثاني من أغسطس 2026 ومعاملة أي تأجيل محتملًا لا افتراضًا في التخطيط.
—
المصادر والقراءات الإضافية
- الجدول الزمني لتطبيق قانون الذكاء الاصطناعي الأوروبي — artificialintelligenceact.eu
- الشركات الأمريكية تواجه الموعد النهائي لأغسطس 2026 — Holland & Knight
- قانون الذكاء الاصطناعي الأوروبي 2026: متطلبات الامتثال ومخاطر الأعمال — LegalNodes
- دليل الامتثال لقانون الذكاء الاصطناعي الأوروبي 2026 — SecurePrivacy















