⚡ أبرز النقاط

يمثّل الثاني من أغسطس 2026 الموعد النهائي للامتثال للائحة الذكاء الاصطناعي الأوروبية لمعظم أنظمة الذكاء الاصطناعي عالية الخطورة (الملحق III)، مع متطلبات تقييم المطابقة وعلامة CE والتسجيل في قاعدة بيانات الاتحاد الأوروبي وخطط المراقبة بعد التسويق. تبلغ الغرامات 15 مليون يورو أو 3% من حجم مبيعات شركتك العالمي.

الخلاصة: يجب على المؤسسات التي تنشر الذكاء الاصطناعي في التوظيف والائتمان والقياسات الحيوية وإنفاذ القانون إتمام جرد الملحق III والشروع في تقييم المطابقة فوراً — مع وضع أن مواعيد الحجز لدى الهيئات المعتمدة تمتد 12 إلى 16 أسبوعاً.

اقرأ التحليل الكامل ↓

🧭 رادار القرار

الأهمية بالنسبة للجزائر
عالي

الشركات التكنولوجية الجزائرية ذات الطموحات في الوصول إلى السوق الأوروبية — بما في ذلك شركات التكنولوجيا المالية ومزودو تكنولوجيا الموارد البشرية ومنصات الذكاء الاصطناعي — يجب أن تمتثل لقانون الذكاء الاصطناعي الأوروبي لأي نظام مُنشر لمستخدمين في الاتحاد الأوروبي.
البنية التحتية جاهزة؟
جزئي

تمتلك الجزائر قدرة متنامية في تطوير الذكاء الاصطناعي لكنها تفتقر إلى هيئات اتحادية أوروبية معتمدة محلية، مما يستلزم التعامل مع منظمات تقييم أوروبية لأي نظام يتطلب تقييماً من طرف ثالث.
المهارات متوفرة؟
جزئي

خبرة الامتثال في الذكاء الاصطناعي (تقييم المخاطر، اختبار العدالة، التوثيق التقني) ناشئة في الجزائر؛ يلزم تطوير مهني مُوجَّه أو شراكات استشارية أوروبية لمعظم فرق الذكاء الاصطناعي الجزائرية.
الجدول الزمني للعمل
فوري

الموعد النهائي الثاني من أغسطس 2026 بعد ثلاثة أشهر. يجب على الشركات الجزائرية ذات المنتجات الذكاء الاصطناعي الموجهة للاتحاد الأوروبي الشروع في عملية تقييم المطابقة الآن.
أصحاب المصلحة الرئيسيون
المدراء التقنيون، فرق منتج الذكاء الاصطناعي، المسؤولون القانونيون/الامتثال، الشركات الناشئة الجزائرية في مجال الذكاء الاصطناعي ذات الطموحات الأوروبية
نوع القرار
استراتيجي

امتثال قانون الذكاء الاصطناعي الأوروبي يحدد الوصول إلى السوق الأوروبي لمنتجات الذكاء الاصطناعي — إنه قرار استراتيجي للأعمال لا مجرد إجراء قانوني روتيني.

خلاصة سريعة: يجب على شركات الذكاء الاصطناعي الجزائرية التي تستهدف السوق الأوروبية التصرف فوراً: إتمام جرد نطاق الملحق III، والشروع في التعامل مع هيئة معتمدة إن لزم الأمر، وتسجيل الأنظمة في قاعدة بيانات الذكاء الاصطناعي الأوروبية قبل الثاني من أغسطس 2026. نافذة الثلاثة أشهر ضيّقة، والطاقة الاستيعابية للهيئات المعتمدة محدودة، ويجب دمج المراقبة بعد التسويق في خطوط MLOps كممارسة تشغيلية دائمة.

إعلان

ما الذي يتغيّر في الثاني من أغسطس 2026

دخل قانون الذكاء الاصطناعي الأوروبي حيّز التنفيذ في الأول من أغسطس 2024، وهو يتبع منذ ذلك الحين جدولاً تطبيقياً مرحلياً. حُظرت ممارسات الذكاء الاصطناعي المحظورة في الثاني من فبراير 2025. طُبّقت التزامات نماذج GPAI اعتباراً من الثاني من أغسطس 2025. أما المحطة التشغيلية الكبرى — التطبيق الكامل لأنظمة الذكاء الاصطناعي عالية الخطورة المدرجة في الملحق III — فتحل في الثاني من أغسطس 2026.

يُحدد الملحق III ثماني فئات من أنظمة الذكاء الاصطناعي عالية الخطورة: القياسات الحيوية والتعرف على المشاعر، وإدارة البنية التحتية الحيوية (الطاقة، الماء، النقل)، والذكاء الاصطناعي المستخدم في قرارات الوصول إلى التعليم، وإدارة التوظيف والقوى العاملة، والوصول إلى الخدمات الأساسية (تسجيل الائتمان، الاكتتاب التأميني، الاستحقاقات الاجتماعية)، وتطبيقات إنفاذ القانون، وأنظمة معالجة الهجرة واللجوء، ومساعدة إدارة العدالة.

تشمل متطلبات الامتثال التي تدخل حيّز التنفيذ في الثاني من أغسطس 2026 لأنظمة الملحق III أربعة عناصر إلزامية: تقييم المطابقة، وعلامة CE، والتسجيل في قاعدة البيانات، وخطة المراقبة بعد التسويق.

عملية تقييم المطابقة في التطبيق الفعلي

تقييم المطابقة هو أكثر ممارسات التوثيق جوهريةً في عملية الامتثال. إنه ليس قائمة تحقق من صفحة واحدة — بل دوسيه تقني منظّم يجب أن يُثبت الامتثال عبر ستة أبعاد.

يجب أن يُظهر توثيق إدارة المخاطر أن المزوّد حدّد وقيّم وخفّف المخاطر المتوقعة بشكل معقول للنظام عبر دورة حياته — بما في ذلك سيناريوهات إساءة الاستخدام المعروفة.

يجب أن يُثبت توثيق حوكمة البيانات أن مجموعات بيانات التدريب والتحقق والاختبار خضعت لممارسات مناسبة لإدارة البيانات — بما في ذلك فحص التحيّز وفحوصات الأهمية وتوثيق القيود المعروفة.

يجب أن تقدّم الوثائق التقنية وصفاً كاملاً للنظام: الغرض وعملية التطوير ومنهجية التدريب والهندسة المعمارية ومتطلبات الحوسبة وتنسيقات الإخراج. يجب الاحتفاظ بهذه الوثائق لمدة 10 سنوات.

تُلزم متطلبات الشفافية بأن يتلقى مستخدمو الأنظمة عالية الخطورة إفصاحاً عن قدرات النظام وقيوده ومستوى الإشراف البشري المطلوب. بالنسبة لأدوات الموارد البشرية، يعني هذا إبلاغ المتقدمين بأنهم يُقيَّمون بواسطة نظام ذكاء اصطناعي.

إعلان

ما يجب على المؤسسات فعله قبل الثاني من أغسطس

1. إتمام جرد أنظمة الملحق III بحلول الأول من يونيو 2026

الشرط المسبق لأي إجراء امتثال هو جرد كامل لأنظمة الذكاء الاصطناعي الواقعة ضمن نطاق الملحق III. يتطلب هذا مراجعة متعددة الوظائف تشمل إدارة المنتجات والشؤون القانونية والفرق التقنية — نطاق الملحق III يُحدَّد بحالة الاستخدام، لا بالتقنية. تُلاحظ شركة Holland & Knight أن كثيراً من المؤسسات تُقلّل من تقدير نطاق الملحق III لأنها تُصنّف أنظمة الذكاء الاصطناعي وفق وظيفتها الأساسية لا وفق القرار الذي تؤثر فيه. ابنِ الجرد بشكل محافظ وطبّق اختبار النطاق: هل مخرجات هذا النظام تؤثر على وصول الأفراد إلى الخدمات أو الفرص أو الحقوق؟

2. إعطاء الأولوية للتقييم من طرف ثالث للأنظمة البيومترية وأنظمة إنفاذ القانون

تؤهّل معظم أنظمة الملحق III لإجراءات تقييم المطابقة الذاتي. غير أن المادة 43 من قانون الذكاء الاصطناعي تشترط تقييماً من هيئة اتحادية أوروبية معتمدة لأنظمة التعرف البيومتري عن بُعد في الأماكن العامة وأنظمة التصنيف البيومتري وأنظمة التعرف على المشاعر في بيئات التوظيف أو التعليم. إذا كان نظامك ينتمي لإحدى هذه الفئات، فلا يمكنك إصدار شهادة ذاتية. الطاقة الاستيعابية للهيئات المعتمدة محدودة: وفق تتبّع الامتثال لدى Secure Privacy AI، أقل من 15 منظمة في الاتحاد الأوروبي بأكمله حصلت على وضع هيئة معتمدة لتقييمات قانون الذكاء الاصطناعي، ومهل الحجز تمتد 12 إلى 16 أسبوعاً.

3. تسجيل الأنظمة في قاعدة بيانات الذكاء الاصطناعي الأوروبية قبل الثاني من أغسطس

تُلزم قاعدة بيانات الذكاء الاصطناعي الأوروبية المزوّدين بتسجيل كل نظام ذكاء اصطناعي عالي الخطورة من الملحق III، بما يشمل: اسم النظام والإصدار والغرض المقصود والفئة ونوع المستخدم وبلد النشر وما إذا كان تقييم المطابقة ذاتياً أو أجرته هيئة معتمدة. أي تعديل جوهري على نظام مسجّل يستوجب إعادة تقييم وتحديث التسجيل.

4. دمج المراقبة بعد التسويق في خط أنابيب MLOps الخاص بك

المراقبة بعد التسويق هي التزام الامتثال الأقل فهماً في حزمة أغسطس 2026. تُلزم المزوّدين بجمع بيانات استباقية عن أداء أنظمة الذكاء الاصطناعي عالية الخطورة في النشر الفعلي والإبلاغ عن الحوادث الخطيرة لسلطات مراقبة السوق الوطنية (15 يوماً للحوادث التي تسبب وفاة أو ضرراً جسيماً مباشراً). توصي Legal Nodes بدمج المراقبة بعد التسويق في خطوط MLOps كممارسة قياسية — الأدوات القائمة (MLflow وWeights & Biases) توفر البنية التحتية التقنية لكنها تحتاج إلى موصّلات رسمية لتصعيد الحوادث.

الصورة الأشمل

الثاني من أغسطس 2026 ليس نهاية تعقيد الامتثال لقانون الذكاء الاصطناعي الأوروبي — إنه أول نقطة تحكم تشغيلية كبرى. بالنسبة للمنظمات خارج الاتحاد الأوروبي التي تنشر أنظمة ذكاء اصطناعي يصل إليها المقيمون في الاتحاد الأوروبي — بما في ذلك الشركات في الجزائر والخليج وجنوب شرق آسيا — يعني النطاق الخارج الإقليمي للقانون أن الامتثال ليس اختيارياً. أي مزوّد أو مُستخدِم تُستعمل مخرجات نظامه داخل الاتحاد الأوروبي يجب أن يمتثل، بصرف النظر عن مكان تطوير النظام أو استضافته.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما أنظمة الذكاء الاصطناعي المعتبرة “عالية الخطورة” بموجب الملحق III لقانون الذكاء الاصطناعي الأوروبي؟

يُدرج الملحق III ثماني فئات: القياسات الحيوية (بما في ذلك التعرف على المشاعر)، وإدارة البنية التحتية الحيوية (الطاقة، الماء، النقل)، وقرارات الوصول إلى التعليم، وإدارة التوظيف والقوى العاملة (بما في ذلك فرز السير الذاتية ومراقبة الأداء)، والوصول إلى الخدمات الأساسية (تسجيل الائتمان، التأمين، الاستحقاقات الاجتماعية)، وتطبيقات إنفاذ القانون، ومعالجة الهجرة واللجوء، وإدارة العدالة.

ما العقوبة على تجاوز الموعد النهائي للامتثال الثاني من أغسطس 2026؟

يستوجب عدم الامتثال بمتطلبات أنظمة الذكاء الاصطناعي عالية الخطورة غرامات تصل إلى 15 مليون يورو أو 3% من حجم المبيعات السنوي العالمي، أيهما أعلى. بالنسبة لممارسات الذكاء الاصطناعي المحظورة (المحظورة منذ فبراير 2025)، يبلغ الحد الأقصى 35 مليون يورو أو 7% من حجم المبيعات العالمي. يُتيح القانون أيضاً لسلطات مراقبة السوق الوطنية طلب سحب الأنظمة غير الممتثلة من السوق الأوروبية.

هل ينطبق قانون الذكاء الاصطناعي الأوروبي على الشركات غير الأوروبية؟

نعم. ينطبق قانون الذكاء الاصطناعي الأوروبي خارج إقليمياً: أي مزوّد (مطوّر) أو مُستخدِم (منظمة مستعملة) تُستعمل مخرجات نظامه داخل الاتحاد الأوروبي يجب أن يمتثل، بصرف النظر عن بلد تأسيس المنظمة أو مكان استضافة النظام. وهذا يعني أن الشركات الجزائرية والأمريكية والآسيوية تواجه جميعها الالتزامات ذاتها بالنسبة لمنتجات الذكاء الاصطناعي الموجهة للاتحاد الأوروبي.

المصادر والقراءات الإضافية