⚡ أبرز النقاط

يُفعّل الثاني من أغسطس 2026 متطلبات الامتثال الكاملة بموجب قانون الذكاء الاصطناعي الأوروبي لأنظمة الذكاء الاصطناعي عالية الخطورة في الملحق الثالث التي تشمل القياسات الحيوية والتوظيف والتسجيل الائتماني والتعليم وتطبيق القانون وست فئات أخرى. تصل الغرامات القصوى إلى 35 مليون يورو أو 7 % من الإيرادات السنوية العالمية. لا توجد فترة سماح بعد الموعد النهائي، ويجب تسجيل جميع أنظمة الملحق الثالث في قاعدة البيانات الأوروبية قبل ذلك التاريخ.

الخلاصة: يجب على فرق الامتثال المؤسسي إنجاز تصنيف أنظمة الذكاء الاصطناعي وتقييمات المطابقة والتوثيق التقني والتسجيل في قاعدة البيانات الأوروبية لجميع نشرات الملحق الثالث قبل الثاني من أغسطس 2026 — أي ثغرة تُفضي إلى تعرض فوري للإنفاذ.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
متوسط

الشركات الجزائرية المُصدِّرة للبرمجيات أو خدمات الذكاء الاصطناعي إلى السوق الأوروبية، والشركاء مع مؤسسات أوروبية، ستخضع بشكل غير مباشر لمتطلبات الملحق الثالث عبر برامج امتثال الموردين لعملائها الأوروبيين.
البنية التحتية جاهزة؟
جزئي

تمتلك الجزائر هيئات تنظيمية رقمية (ARPT) لكنها تفتقر إلى بنية تحتية رسمية لتقييم مطابقة الذكاء الاصطناعي أو جهات معتمدة مُخطَّرة — المؤسسات التي تحتاج تقييمات طرف ثالث يجب استخدام مزودين أوروبيين.
المهارات متوفرة؟
منخفض

المتخصصون في حوكمة الذكاء الاصطناعي والامتثال للوائح الأوروبية نادرون في الجزائر؛ يمكن للمكاتب القانونية الدولية متعددة الجنسيات ذات مكاتب جزائرية تقديم المشورة، لكن خبرة الامتثال المحددة لقانون الذكاء الاصطناعي الأوروبي محدودة جدًا محليًا.
الجدول الزمني للعمل
6-12 شهراً

يجب على المؤسسات الجزائرية ذات التعرض للسوق الأوروبية مراجعة منتجاتها وخدماتها المرتبطة بالذكاء الاصطناعي الآن للتعرف على أي تعرض للملحق الثالث — الموعد النهائي لأغسطس 2026 ينطبق على النشرات الموجهة للاتحاد الأوروبي بغض النظر عن مقر المزود.
أصحاب المصلحة الرئيسيون
مُصدِّرو البرمجيات الجزائريون، فرق الشؤون القانونية المؤسسية، المدراء التقنيون في الشركات المتشاركة مع الاتحاد الأوروبي، وزارة الرقمنة
نوع القرار
تكتيكي

بالنسبة للمؤسسات ذات التعرض للاتحاد الأوروبي، هذا متطلب امتثال تشغيلي؛ أما للنظام البيئي التقني الجزائري الأشمل، فهو إحاطة تعليمية حول المعايير التي سيفرضها الشركاء الدوليون.

خلاصة سريعة: على الشركات التكنولوجية الجزائرية ذات العملاء أو الشراكات الأوروبية سؤال نظرائها عن أنظمة الذكاء الاصطناعي التي ينشرونها والتي قد تندرج في الملحق الثالث — إذ ستُنزّل المؤسسات الأوروبية متطلبات الامتثال على سلاسل مورديها ضمن برامجها الامتثالية لأغسطس 2026. الشركات التي توثّق ممارسات حوكمة ذكائها الاصطناعي بصورة استباقية ستكون شركاء أفضل وتواجه طلبات تدقيق مُعطِّلة أقل.

ما الذي يُفعّله الثاني من أغسطس 2026 فعليًا

يتدرّج تطبيق قانون الذكاء الاصطناعي الأوروبي منذ نشره. سبقت أغسطس 2026 نقطتا تحول رئيسيتان: في 2 فبراير 2025، سرت حظورات أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة. وفي 2 أغسطس 2025، نشطت التزامات البنية التحتية للحوكمة ومتطلبات مزودي نماذج الذكاء الاصطناعي للأغراض العامة (GPAI).

الثاني من أغسطس 2026 هو حيث تنهال قوة القانون على معظم المؤسسات. تصف الجدول الزمني الرسمي للتطبيق هذا التاريخ بأنه “بدء سريان بقية قانون الذكاء الاصطناعي، باستثناء المادة 6(1)”. عمليًا يعني ذلك:

  • جميع أنظمة الذكاء الاصطناعي عالية الخطورة في الملحق الثالث يجب أن تستوفي متطلبات الامتثال الكاملة — أنظمة إدارة المخاطر والتوثيق التقني وتقييمات المطابقة والتسجيل في قاعدة البيانات الأوروبية وعلامة CE وآليات الإشراف البشري
  • المُشغّلون (deployers) لأنظمة الخطر المرتفع القائمة يجب تطبيق إجراءات المراقبة والتسجيل وإبلاغ الحوادث وإجراء تقييمات الأثر
  • يجب أن تتوفر لدى جميع الدول الأعضاء في الاتحاد الأوروبي صناديق تنظيمية تجريبية وطنية نشطة
  • يجب على المزودين غير الأوروبيين تعيين ممثل مُفوّض في الاتحاد الأوروبي

الاستثناء الوحيد: تلتزامات المادة 6(1) — التي تشمل أنظمة الذكاء الاصطناعي المُدمجة في منتجات خاضعة لتشريعات قطاعية أوروبية أخرى — تمتد حتى أغسطس 2027.

الفئات الثماني عالية الخطورة في الملحق الثالث

يُحدد الملحق الثالث فئات تطبيقات الذكاء الاصطناعي التي تُفعّل أشد متطلبات القانون صرامةً. كل مؤسسة تنشر الذكاء الاصطناعي في أي من هذه المجالات تحتاج إلى ملف امتثال مكتمل قبل الثاني من أغسطس:

  1. التعرف البيومتري والتصنيف — الأنظمة الآنية وما بعد الحادثة التي تُحدد الأفراد أو تُصنّفهم بالبيانات البيومترية
  2. البنية التحتية الحيوية — الذكاء الاصطناعي في شبكات الكهرباء والمياه والغاز والنقل والبنية التحتية للأسواق المالية
  3. التعليم والتدريب المهني — الذكاء الاصطناعي الذي يُحدد الوصول إلى التعليم، أو يُقيّم الطلاب، أو يُراقبهم خلال الامتحانات
  4. التوظيف وإدارة الموارد البشرية — الذكاء الاصطناعي في التوظيف والاختيار وتوزيع المهام ومراقبة الأداء أو قرارات الإنهاء
  5. الوصول إلى الخدمات الخاصة الأساسية والمزايا العامة — تسجيل الائتمان وتقييم مخاطر التأمين والأهلية للاستفادة الاجتماعية
  6. تطبيق القانون — الذكاء الاصطناعي للتنبؤ بالجريمة وتقييم الأدلة وتقييم المخاطر الفردية في التحقيقات
  7. الهجرة واللجوء ومراقبة الحدود — الذكاء الاصطناعي في معالجة التأشيرات والتحقق من وثائق السفر وتقييم المخاطر
  8. إقامة العدل والعمليات الديمقراطية — الذكاء الاصطناعي المساعد في القرارات القضائية أو العمليات الانتخابية

يطال نطاق هذه القائمة كثيرًا من المؤسسات التي لا تعدّ نفسها “شركات ذكاء اصطناعي”. البنك الذي يستخدم نموذج تسجيل ائتماني، وفريق الموارد البشرية الذي يستخدم أداة ذكاء اصطناعي لاستعراض السير الذاتية، والجامعة التي تستخدم مراقبة آلية خلال الامتحانات الإلكترونية — كلها تنشر ذكاءً اصطناعيًا عالي الخطورة من الملحق الثالث وتخضع لنظام الامتثال الكامل.

إعلان

ما يجب على فرق الامتثال المؤسسي إنجازه قبل الثاني من أغسطس

1. إنجاز تصنيف أنظمة الذكاء الاصطناعي وتحديد مستوى المخاطر

قبل أي خطوة امتثال أخرى، يجب تصنيف كل نظام ذكاء اصطناعي في النشر المؤسسي. يشترط القانون أن يتحقق المزودون مما إذا كانت أنظمتهم تندرج ضمن فئات الملحق الثالث. يمكن للمزود الاحتجاج بأن نظامًا من الملحق الثالث لا يستوجب النظام الكامل للمخاطر العالية إذا استطاع “إثبات وتوثيق أن هذا النظام لا يُشكّل خطرًا جسيمًا” — لكن هذا الاستثناء يجب توثيقه لا افتراضه.

التصنيف ليس حدثًا لمرة واحدة. تتطور أنظمة الذكاء الاصطناعي وتتوسع حالات الاستخدام وتتغير سياقات النشر — وكل ذلك يمكن أن يُغيّر تصنيف المخاطر. تحتاج المؤسسات إلى عملية تصنيف قابلة للتكرار تربط قرار التصنيف بحالة الاستخدام المحددة لا بنوع النظام وحده.

2. إنجاز تقييمات المطابقة والتوثيق التقني

بالنسبة لأنظمة الملحق الثالث عالية الخطورة، يُعدّ تقييم المطابقة الآلية الجوهري للامتثال. بحسب نوع النظام، يكون ذلك إما تقييمًا ذاتيًا (لمعظم أنظمة الملحق الثالث) أو تقييمًا من طرف ثالث (لأنظمة التعرف البيومتري). يجب أن يتحقق التقييم من استيفاء النظام للمتطلبات التقنية عبر ستة مجالات: نظام إدارة المخاطر، وحوكمة البيانات، والتوثيق التقني، والشفافية، والإشراف البشري، والدقة/المتانة/الأمن السيبراني.

التوثيق التقني هو قاعدة الأدلة لتقييم المطابقة — ويجب صيانته وتحديثه، لا إنتاجه مرة واحدة عند النشر. المزودون غير الأوروبيين الذين عاملوا متطلبات التوثيق الأوروبية مهمةً مستقبلية يجب أن يعتبروا الثاني من أغسطس موعدًا نهائيًا صارمًا لهذا التأخر.

3. تسجيل الأنظمة عالية الخطورة في قاعدة بيانات الذكاء الاصطناعي الأوروبية

يُنشئ قانون الذكاء الاصطناعي الأوروبي قاعدة بيانات تسجيل إلزامية لأنظمة الذكاء الاصطناعي عالية الخطورة قبل وضعها في السوق الأوروبية. تُديرها مكتب الذكاء الاصطناعي الأوروبي. يستلزم التسجيل: اسم النظام وإصداره، وهوية المزود وممثله الأوروبي، والغرض المقصود، وفئة الملحق الثالث، وحالة الامتثال، وإعلان المطابقة.

التسجيل ليس إيداعًا لمرة واحدة — بل يجب تحديثه عند إجراء تعديلات جوهرية على الأنظمة. المؤسسات ذات نشرات ذكاء اصطناعي متعددة عبر فئات الملحق الثالث قد تحتاج إلى تسجيل عشرات الأنظمة. بناء عملية تسجيل منهجية — تشمل مالكًا مُسمّى لكل نظام مسجّل — أيسر إدارةً من معاملة التسجيل مهمةً قانونية عشوائية.

4. تطبيق أنظمة الإشراف البشري والتسجيل

تُعدّ متطلبات الإشراف البشري لقانون الذكاء الاصطناعي الأوروبي الأكثر تطلبًا تشغيليًا بالنسبة للمؤسسات التي نشرت الذكاء الاصطناعي في سياقات قرار آلية عالية الحجم. المطلوب ليس مراجعة بشرية لكل قرار ذكاء اصطناعي — بل تعيين أفراد مؤهلين يمتلكون الصلاحية والقدرة على مراقبة مخرجات النظام واكتشاف الشذوذات والتدخل عند السلوك غير المتوقع.

بالنسبة للمُشغّلين (لا المزودين فحسب)، يشترط القانون الاحتفاظ بالسجلات المُولَّدة آليًا لمدة ستة أشهر على الأقل. مراجعة بنية السجلات وسياسات الاحتفاظ في مواجهة متطلبات القانون ينبغي إنجازها قبل الثاني من أغسطس.

الصورة الكبرى: من الامتثال إلى نضج حوكمة الذكاء الاصطناعي

الثاني من أغسطس 2026 موعدٌ نهائي للامتثال، وكذلك عتبةٌ لنضج مؤسسي. المؤسسات التي تبني برامج امتثالها بردود فعل — تجمع التوثيق تحت ضغط الموعد النهائي — ستستوفي حرف الاشتراط لكنها لن تبني القدرة الداخلية لحوكمة الذكاء الاصطناعي بمسؤولية مع تكاثر الأنظمة وتطور التنظيمات.

المؤسسات التي تخرج من أغسطس 2026 في أقوى موقع ستكون تلك التي استخدمت عملية الامتثال لبناء بنية تحتية دائمة لحوكمة الذكاء الاصطناعي: إطار تصنيف يتكيف مع تطور الأنظمة، وعملية تقييم مطابقة تمتلكها فرقة متعددة الوظائف، وعملية تسجيل بمالكي أنظمة مُسمَّيين، ونموذج إشراف بشري موثق في عقود النشر.

قانون الذكاء الاصطناعي الأوروبي ليس آخر تنظيم للذكاء الاصطناعي ستواجهه هذه المؤسسات. الاتفاقية الإطارية لمجلس أوروبا تُنشئ التزامات موازية في 50+ ولاية قضائية غير أوروبية. الغرامات القصوى بموجب القانون تبلغ 35 مليون يورو أو 7 % من الإيرادات السنوية العالمية — أرقام تفوق بكثير تكلفة بناء بنية تحتية قوية للامتثال.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

أي أنواع أنظمة الذكاء الاصطناعي الأكثر احتمالًا للتأثير على الشركات غير الأوروبية البائعة في السوق الأوروبية؟

أدوات فرز الموارد البشرية، ونماذج تسجيل الائتمان أو المخاطر، وأنظمة توصية المحتوى ذات الأثر الكبير على المستخدم، وأنظمة التحقق من هوية العملاء هي أكثر مُحفّزات الملحق الثالث شيوعًا بالنسبة للموردين غير الأوروبيين. إذا قدّمت شركة غير أوروبية برمجيات ذكاء اصطناعي كخدمة (SaaS) لعملاء أوروبيين ينشرونها في سياقات الملحق الثالث، فإن الشركة غير الأوروبية تُعدّ “مزودًا” بموجب القانون ويجب أن تستوفي التزامات المزود.

ما الغرامة القصوى بموجب قانون الذكاء الاصطناعي الأوروبي، وكيف تُقارن بالـ GDPR؟

تصل الغرامات القصوى لقانون الذكاء الاصطناعي الأوروبي إلى 35 مليون يورو أو 7 % من إجمالي الإيرادات السنوية العالمية للانتهاكات المتعلقة بممارسات الذكاء الاصطناعي المحظورة. لانتهاكات الذكاء الاصطناعي عالي الخطورة، يبلغ السقف 15 مليون يورو أو 3 % من الإيرادات. الحد الأقصى للـ GDPR هو 20 مليون يورو أو 4 % من الإيرادات. بالنسبة للشركات الكبيرة، يتجاوز الحد الأقصى البالغ 7 % لقانون الذكاء الاصطناعي حد الـ 4 % للـ GDPR.

هل ثمة فترة سماح أو تأجيل للموعد النهائي الثاني من أغسطس 2026؟

ناقش البرلمان الأوروبي تأجيلًا إلى ديسمبر 2027 أو أغسطس 2028 لبعض متطلبات الملحق الثالث، لكن هذا التأجيل لم يُعتمد رسميًا حتى الآن. يؤكد الجدول الزمني الرسمي للتطبيق أن الثاني من أغسطس 2026 هو تاريخ البدء. التزامات المادة 6(1) تمتد حتى أغسطس 2027. على المؤسسات التخطيط للثاني من أغسطس 2026 ومعاملة أي تأجيل محتملًا لا افتراضًا في التخطيط.

المصادر والقراءات الإضافية