⚡ أبرز النقاط

وافق مجلس الشيوخ الفيدرالي البرازيلي على PL 2338/2023، إطار مخاطر للذكاء الاصطناعي بثلاثة مستويات يُصنِّف الأنظمة كمخاطر مفرطة (محظورة) أو عالية (منظمة مع تقييمات أثر خوارزمية إلزامية) أو عادية. وستنسق ANPD التنفيذ بغرامات تصل إلى 50 مليون ريال لكل مخالفة، مما يجعله أشمل قانون ذكاء اصطناعي مصمم لاقتصاد نامٍ.

خلاصة: ينبغي لشركات التقنية التي تشغّل أنظمة ذكاء اصطناعي في البرازيل البدء في إعداد قدرات تقييم الأثر الخوارزمي وآليات الشفافية الآن، حيث يمر المشروع بمرحلته التشريعية النهائية قبل أن يصبح قانوناً.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
عالي

تطور الجزائر إطار حوكمتها الرقمية الخاص، ويقدم النهج البرازيلي نموذجاً قابلاً للتطبيق مباشرة لاقتصاد نامٍ يوازن بين ابتكار الذكاء الاصطناعي وحماية المواطنين.
البنية التحتية جاهزة؟
جزئي

تمتلك الجزائر هيئة لحماية البيانات (مكافئة لـ ANPD) لكنها تفتقر إلى القدرة المؤسسية لتقييمات الأثر الخوارزمية والتنفيذ الخاص بالذكاء الاصطناعي.
المهارات متوفرة؟
جزئي

تمتلك الهيئات التنظيمية الجزائرية خبرة تقنية محدودة في الذكاء الاصطناعي؛ وسيتطلب بناء فرق التقييم تطويراً كبيراً للقدرات.
الجدول الزمني للعمل
12-24 شهراً

يمكن للجزائر دراسة نتائج التطبيق البرازيلي قبل صياغة إطارها الخاص، لكن ينبغي البدء مبكراً في إعداد القدرات المؤسسية.
أصحاب المصلحة الرئيسيون
صانعو السياسات، وزارة الرقمنة، ARPCE، المتخصصون القانونيون
نوع القرار
استراتيجي

يقدم هذا المقال مخططاً تنظيمياً يمكن لصانعي السياسات الجزائريين تكييفه، مما يجعله ذا صلة مباشرة بتخطيط حوكمة الذكاء الاصطناعي الوطنية.

خلاصة سريعة: ينبغي للمنظمين الجزائريين دراسة نموذج البرازيل القائم على ثلاثة مستويات مخاطر وأحكام بيئات الاختبار كقالب لتطوير إطار الذكاء الاصطناعي الخاص بالجزائر. ويُعد الدور المزدوج لـ ANPD كمنظم لحماية البيانات والذكاء الاصطناعي ذا صلة خاصة، حيث يمكن للجزائر الاستفادة من هياكل الحوكمة الرقمية القائمة بدلاً من بناء مؤسسات جديدة من الصفر.

أكبر اقتصاد نامٍ يتصدى لحوكمة الذكاء الاصطناعي

وافق مجلس الشيوخ الفيدرالي البرازيلي على مشروع القانون رقم 2338/2023 في ديسمبر 2024، مُنشئاً أشمل إطار تنظيمي للذكاء الاصطناعي خارج الاتحاد الأوروبي. ويخضع حالياً للمراجعة النهائية في مجلس النواب، حيث سينظم أنظمة الذكاء الاصطناعي التي تخدم خامس أكبر دولة في العالم من حيث السكان وتاسع أكبر اقتصاد من حيث الناتج المحلي الإجمالي.

على خلاف قانون الذكاء الاصطناعي الأوروبي، الذي انبثق من أحد أغنى التكتلات الاقتصادية في العالم، يأخذ النهج البرازيلي في الاعتبار صراحةً قيود وأولويات اقتصاد نامٍ. يوازن المشروع بين حماية الحقوق الأساسية وأحكام مصممة لتجنب خنق صناعة ذكاء اصطناعي محلية ناشئة، بما في ذلك بيئات اختبار تنظيمية تسمح للمطورين باختبار أنظمة الذكاء الاصطناعي في بيئات مضبوطة قبل الطرح الكامل في السوق.

يأتي هذا التشريع فيما تنفذ البرازيل استراتيجيتها الوطنية للذكاء الاصطناعي PBIA 2024-2028، التي تُموضع البلاد لتصبح قائداً إقليمياً في أمريكا اللاتينية. ومع استكشاف الأرجنتين وتشيلي وكولومبيا لأطرها الخاصة، قد يصبح المشروع البرازيلي النموذج لحوكمة الذكاء الاصطناعي في المنطقة بأكملها.

ثلاثة مستويات مخاطر، تسلسل هرمي واضح

يتبنى المشروع بنية قائمة على المخاطر تُصنِّف أنظمة الذكاء الاصطناعي في ثلاثة مستويات. الأنظمة المُعتبَرة “ذات مخاطر مفرطة” محظورة تماماً. ويشمل ذلك تطبيقات الذكاء الاصطناعي التي تستغل الفئات الهشة، أو تُمكِّن من التصنيف الاجتماعي العشوائي من قبل الحكومات، أو تنشر تقنيات تلاعب خفية تُلحق الضرر.

تواجه الأنظمة عالية المخاطر أثقل عبء تنظيمي. يُعرِّفها المشروع بأنها أنظمة ذكاء اصطناعي تؤثر مباشرة على حياة الأفراد أو حقوقهم في مجالات حرجة: تشخيصات الرعاية الصحية، والعدالة الجنائية، وتسجيل الائتمان، وقرارات التوظيف، وتطبيقات الأمن العام. ويجب على مطوري الأنظمة عالية المخاطر إجراء تقييمات أثر خوارزمية قبل طرح أي نظام في السوق، وضمان إشراف بشري على القرارات ذات الأثر الكبير، وتوفير الشفافية حول آلية عمل الذكاء الاصطناعي، واختبار التحيز التمييزي.

يشمل المستوى الثالث جميع أنظمة الذكاء الاصطناعي الأخرى، التي تخضع لمتطلبات شفافية أساسية مع حد أدنى من الاحتكاك التنظيمي. يعكس هذا النهج المتدرج هيكل قانون الذكاء الاصطناعي الأوروبي مع تعديلات ملحوظة تناسب البيئة التنظيمية البرازيلية، خاصة في كيفية تحديد فئات المخاطر العالية وآليات التنفيذ.

إعلان

ANPD تتولى قيادة التنظيم

يُعيِّن المشروع الهيئة الوطنية البرازيلية لحماية البيانات (ANPD) منسقةً للنظام الوطني الجديد لتنظيم وحوكمة الذكاء الاصطناعي، المعروف اختصاراً بـ SIA. ويستفيد هذا القرار من البنية المؤسسية التي بناها البرازيل لقانون حماية البيانات لعام 2020 (LGPD)، بدلاً من إنشاء هيئة تنظيمية جديدة كلياً.

ستعمل ANPD كـ “منظم متبقٍ” لمسائل الذكاء الاصطناعي غير المخصصة بوضوح لسلطات قطاعية. وحيث تعالج أنظمة الذكاء الاصطناعي بيانات شخصية، تعمل ANPD كمنظم رئيسي. أما للتطبيقات القطاعية كالذكاء الاصطناعي في الصحة أو المالية، فتنسق ANPD مع المنظمين الحاليين مثل ANVISA (الصحة) والبنك المركزي.

يحمل التنفيذ أسناناً حادة. تشمل العقوبات الإدارية غرامات تصل إلى 50 مليون ريال لكل مخالفة (حوالي 9 ملايين دولار)، أو ما يصل إلى 2% من الإيرادات السنوية للمجموعة المخالفة من السنة المالية السابقة، أيهما أكبر. كما يمكن لـ ANPD أن تأمر بإعادة تصنيف مستوى مخاطر النظام أو فرض تقييمات أثر خوارزمية لتوجيه التحقيقات.

تقييمات الأثر الخوارزمي تصبح إلزامية

بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر والعامة الغرض، يشترط المشروع إجراء تقييمات أثر خوارزمية قبل دخول أي نظام إلى السوق. ويجب أن تُقيِّم هذه التقييمات المخاطر المحتملة، وتُحدد الفوائد كمّياً، وتُفصِّل تدابير التخفيف. كما يجب تحديثها طوال دورة حياة النظام، وليس عند الإطلاق فحسب.

يُحدد المشروع أن تقييمات الأثر الخوارزمي يجب أن يُجريها فريق مهني يتمتع بخبرة تقنية وعلمية وقانونية مناسبة. وتحتفظ السلطة المختصة بصلاحية تنظيم معايير التقييم وضمان استقلالية فرق التقييم. يستمد هذا الشرط من إطار تقييم أثر حماية البيانات القائم في البرازيل بموجب LGPD، مُنشئاً مساراً منسقاً للامتثال للشركات الخاضعة أصلاً لقواعد حماية البيانات.

وقد أبدى مجلس المنافسة البرازيلي CADE رأيه أيضاً، مقترحاً تعديلات لمعالجة مخاطر التركز في أسواق الذكاء الاصطناعي وضمان ألا يُفضي الإطار التنظيمي عن غير قصد إلى تفضيل الشركات القائمة على حساب الشركات الناشئة.

لماذا يهم هذا المشروع خارج البرازيل

تتجاوز أهمية المشروع الحدود البرازيلية. بوصفه أول قانون رئيسي للذكاء الاصطناعي مُصمَّم لاقتصاد نامٍ، يقدم نموذجاً تنظيمياً يوازن بين حماية الحقوق وشواغل التنمية الاقتصادية. وتبرز بشكل خاص أحكام بيئات الاختبار التنظيمية: فهي تسمح لمطوري الذكاء الاصطناعي باختبار الأنظمة في بيئات مضبوطة مع متطلبات تنظيمية مخففة، مما يوفر مساراً للشركات الصغيرة والناشئة للابتكار دون تحمل عبء الامتثال الكامل منذ اليوم الأول.

بالنسبة لشركات التقنية متعددة الجنسيات، يُنشئ المشروع نطاقاً قضائياً إضافياً للامتثال مع عقوبات جوهرية. ستحتاج الشركات التي تشغّل أنظمة ذكاء اصطناعي في البرازيل إلى إجراء تقييمات أثر، وتطبيق آليات شفافية، وتعيين ممثلين محليين محتملاً، تماماً كما اشترطت LGPD في مجال حماية البيانات.

كما يُرسي المشروع مبدأ الاحتراز و”الوقاية بالتصميم” كمفاهيم أساسية، مشترطاً على المطورين توقع الأضرار المحتملة والتخفيف منها قبل وصول النظام إلى السوق. يتناقض هذا النهج الاستباقي مع نماذج التنفيذ التفاعلية التي لا تزال سائدة في كثير من الولايات القضائية.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما هو مشروع قانون الذكاء الاصطناعي البرازيلي PL 2338/2023 ومتى سيصبح قانوناً؟

PL 2338/2023 هو مشروع قانون التنظيم الشامل للذكاء الاصطناعي في البرازيل الذي وافق عليه مجلس الشيوخ الفيدرالي في ديسمبر 2024. ويخضع حالياً للمراجعة النهائية في مجلس النواب. وبمجرد إقراره من المجلس وتوقيعه من الرئيس، سيُنشئ إطار مخاطر بثلاثة مستويات ينظم جميع أنظمة الذكاء الاصطناعي العاملة في البرازيل، مؤثراً على أكثر من 215 مليون مواطن.

كيف يختلف تنظيم الذكاء الاصطناعي البرازيلي عن قانون الذكاء الاصطناعي الأوروبي؟

رغم أن كليهما يستخدم أنظمة تصنيف قائمة على المخاطر، فإن المشروع البرازيلي مُصمَّم خصيصاً لاقتصاد نامٍ. يتضمن بيئات اختبار تنظيمية تسمح للشركات الناشئة باختبار أنظمة الذكاء الاصطناعي بأعباء امتثال مخففة، ويُعيِّن هيئة حماية البيانات القائمة ANPD كمنظم للذكاء الاصطناعي بدلاً من إنشاء مؤسسة جديدة. وتبلغ الغرامات حداً أقصى 50 مليون ريال أو 2% من الإيرادات، مقارنة بـ 7% من المبيعات العالمية في الاتحاد الأوروبي.

ما الذي يتعين على الشركات فعله للامتثال لقانون الذكاء الاصطناعي البرازيلي؟

يجب على الشركات التي تنشر أنظمة ذكاء اصطناعي عالية المخاطر في البرازيل إجراء تقييمات أثر خوارزمية قبل الطرح في السوق، وتطبيق إشراف بشري على القرارات ذات الأثر الكبير، وضمان الشفافية حول عمل نظام الذكاء الاصطناعي، واختبار التحيز التمييزي. ويجب تحديث هذه التقييمات طوال دورة حياة النظام بواسطة فرق مهنية مؤهلة تمتلك خبرة تقنية وعلمية وقانونية.

المصادر والقراءات الإضافية