أكبر اقتصاد نامٍ يتصدى لحوكمة الذكاء الاصطناعي
وافق مجلس الشيوخ الفيدرالي البرازيلي على مشروع القانون رقم 2338/2023 في ديسمبر 2024، مُنشئاً أشمل إطار تنظيمي للذكاء الاصطناعي خارج الاتحاد الأوروبي. ويخضع حالياً للمراجعة النهائية في مجلس النواب، حيث سينظم أنظمة الذكاء الاصطناعي التي تخدم خامس أكبر دولة في العالم من حيث السكان وتاسع أكبر اقتصاد من حيث الناتج المحلي الإجمالي.
على خلاف قانون الذكاء الاصطناعي الأوروبي، الذي انبثق من أحد أغنى التكتلات الاقتصادية في العالم، يأخذ النهج البرازيلي في الاعتبار صراحةً قيود وأولويات اقتصاد نامٍ. يوازن المشروع بين حماية الحقوق الأساسية وأحكام مصممة لتجنب خنق صناعة ذكاء اصطناعي محلية ناشئة، بما في ذلك بيئات اختبار تنظيمية تسمح للمطورين باختبار أنظمة الذكاء الاصطناعي في بيئات مضبوطة قبل الطرح الكامل في السوق.
يأتي هذا التشريع فيما تنفذ البرازيل استراتيجيتها الوطنية للذكاء الاصطناعي PBIA 2024-2028، التي تُموضع البلاد لتصبح قائداً إقليمياً في أمريكا اللاتينية. ومع استكشاف الأرجنتين وتشيلي وكولومبيا لأطرها الخاصة، قد يصبح المشروع البرازيلي النموذج لحوكمة الذكاء الاصطناعي في المنطقة بأكملها.
ثلاثة مستويات مخاطر، تسلسل هرمي واضح
يتبنى المشروع بنية قائمة على المخاطر تُصنِّف أنظمة الذكاء الاصطناعي في ثلاثة مستويات. الأنظمة المُعتبَرة “ذات مخاطر مفرطة” محظورة تماماً. ويشمل ذلك تطبيقات الذكاء الاصطناعي التي تستغل الفئات الهشة، أو تُمكِّن من التصنيف الاجتماعي العشوائي من قبل الحكومات، أو تنشر تقنيات تلاعب خفية تُلحق الضرر.
تواجه الأنظمة عالية المخاطر أثقل عبء تنظيمي. يُعرِّفها المشروع بأنها أنظمة ذكاء اصطناعي تؤثر مباشرة على حياة الأفراد أو حقوقهم في مجالات حرجة: تشخيصات الرعاية الصحية، والعدالة الجنائية، وتسجيل الائتمان، وقرارات التوظيف، وتطبيقات الأمن العام. ويجب على مطوري الأنظمة عالية المخاطر إجراء تقييمات أثر خوارزمية قبل طرح أي نظام في السوق، وضمان إشراف بشري على القرارات ذات الأثر الكبير، وتوفير الشفافية حول آلية عمل الذكاء الاصطناعي، واختبار التحيز التمييزي.
يشمل المستوى الثالث جميع أنظمة الذكاء الاصطناعي الأخرى، التي تخضع لمتطلبات شفافية أساسية مع حد أدنى من الاحتكاك التنظيمي. يعكس هذا النهج المتدرج هيكل قانون الذكاء الاصطناعي الأوروبي مع تعديلات ملحوظة تناسب البيئة التنظيمية البرازيلية، خاصة في كيفية تحديد فئات المخاطر العالية وآليات التنفيذ.
إعلان
ANPD تتولى قيادة التنظيم
يُعيِّن المشروع الهيئة الوطنية البرازيلية لحماية البيانات (ANPD) منسقةً للنظام الوطني الجديد لتنظيم وحوكمة الذكاء الاصطناعي، المعروف اختصاراً بـ SIA. ويستفيد هذا القرار من البنية المؤسسية التي بناها البرازيل لقانون حماية البيانات لعام 2020 (LGPD)، بدلاً من إنشاء هيئة تنظيمية جديدة كلياً.
ستعمل ANPD كـ “منظم متبقٍ” لمسائل الذكاء الاصطناعي غير المخصصة بوضوح لسلطات قطاعية. وحيث تعالج أنظمة الذكاء الاصطناعي بيانات شخصية، تعمل ANPD كمنظم رئيسي. أما للتطبيقات القطاعية كالذكاء الاصطناعي في الصحة أو المالية، فتنسق ANPD مع المنظمين الحاليين مثل ANVISA (الصحة) والبنك المركزي.
يحمل التنفيذ أسناناً حادة. تشمل العقوبات الإدارية غرامات تصل إلى 50 مليون ريال لكل مخالفة (حوالي 9 ملايين دولار)، أو ما يصل إلى 2% من الإيرادات السنوية للمجموعة المخالفة من السنة المالية السابقة، أيهما أكبر. كما يمكن لـ ANPD أن تأمر بإعادة تصنيف مستوى مخاطر النظام أو فرض تقييمات أثر خوارزمية لتوجيه التحقيقات.
تقييمات الأثر الخوارزمي تصبح إلزامية
بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر والعامة الغرض، يشترط المشروع إجراء تقييمات أثر خوارزمية قبل دخول أي نظام إلى السوق. ويجب أن تُقيِّم هذه التقييمات المخاطر المحتملة، وتُحدد الفوائد كمّياً، وتُفصِّل تدابير التخفيف. كما يجب تحديثها طوال دورة حياة النظام، وليس عند الإطلاق فحسب.
يُحدد المشروع أن تقييمات الأثر الخوارزمي يجب أن يُجريها فريق مهني يتمتع بخبرة تقنية وعلمية وقانونية مناسبة. وتحتفظ السلطة المختصة بصلاحية تنظيم معايير التقييم وضمان استقلالية فرق التقييم. يستمد هذا الشرط من إطار تقييم أثر حماية البيانات القائم في البرازيل بموجب LGPD، مُنشئاً مساراً منسقاً للامتثال للشركات الخاضعة أصلاً لقواعد حماية البيانات.
وقد أبدى مجلس المنافسة البرازيلي CADE رأيه أيضاً، مقترحاً تعديلات لمعالجة مخاطر التركز في أسواق الذكاء الاصطناعي وضمان ألا يُفضي الإطار التنظيمي عن غير قصد إلى تفضيل الشركات القائمة على حساب الشركات الناشئة.
لماذا يهم هذا المشروع خارج البرازيل
تتجاوز أهمية المشروع الحدود البرازيلية. بوصفه أول قانون رئيسي للذكاء الاصطناعي مُصمَّم لاقتصاد نامٍ، يقدم نموذجاً تنظيمياً يوازن بين حماية الحقوق وشواغل التنمية الاقتصادية. وتبرز بشكل خاص أحكام بيئات الاختبار التنظيمية: فهي تسمح لمطوري الذكاء الاصطناعي باختبار الأنظمة في بيئات مضبوطة مع متطلبات تنظيمية مخففة، مما يوفر مساراً للشركات الصغيرة والناشئة للابتكار دون تحمل عبء الامتثال الكامل منذ اليوم الأول.
بالنسبة لشركات التقنية متعددة الجنسيات، يُنشئ المشروع نطاقاً قضائياً إضافياً للامتثال مع عقوبات جوهرية. ستحتاج الشركات التي تشغّل أنظمة ذكاء اصطناعي في البرازيل إلى إجراء تقييمات أثر، وتطبيق آليات شفافية، وتعيين ممثلين محليين محتملاً، تماماً كما اشترطت LGPD في مجال حماية البيانات.
كما يُرسي المشروع مبدأ الاحتراز و”الوقاية بالتصميم” كمفاهيم أساسية، مشترطاً على المطورين توقع الأضرار المحتملة والتخفيف منها قبل وصول النظام إلى السوق. يتناقض هذا النهج الاستباقي مع نماذج التنفيذ التفاعلية التي لا تزال سائدة في كثير من الولايات القضائية.
الأسئلة الشائعة
ما هو مشروع قانون الذكاء الاصطناعي البرازيلي PL 2338/2023 ومتى سيصبح قانوناً؟
PL 2338/2023 هو مشروع قانون التنظيم الشامل للذكاء الاصطناعي في البرازيل الذي وافق عليه مجلس الشيوخ الفيدرالي في ديسمبر 2024. ويخضع حالياً للمراجعة النهائية في مجلس النواب. وبمجرد إقراره من المجلس وتوقيعه من الرئيس، سيُنشئ إطار مخاطر بثلاثة مستويات ينظم جميع أنظمة الذكاء الاصطناعي العاملة في البرازيل، مؤثراً على أكثر من 215 مليون مواطن.
كيف يختلف تنظيم الذكاء الاصطناعي البرازيلي عن قانون الذكاء الاصطناعي الأوروبي؟
رغم أن كليهما يستخدم أنظمة تصنيف قائمة على المخاطر، فإن المشروع البرازيلي مُصمَّم خصيصاً لاقتصاد نامٍ. يتضمن بيئات اختبار تنظيمية تسمح للشركات الناشئة باختبار أنظمة الذكاء الاصطناعي بأعباء امتثال مخففة، ويُعيِّن هيئة حماية البيانات القائمة ANPD كمنظم للذكاء الاصطناعي بدلاً من إنشاء مؤسسة جديدة. وتبلغ الغرامات حداً أقصى 50 مليون ريال أو 2% من الإيرادات، مقارنة بـ 7% من المبيعات العالمية في الاتحاد الأوروبي.
ما الذي يتعين على الشركات فعله للامتثال لقانون الذكاء الاصطناعي البرازيلي؟
يجب على الشركات التي تنشر أنظمة ذكاء اصطناعي عالية المخاطر في البرازيل إجراء تقييمات أثر خوارزمية قبل الطرح في السوق، وتطبيق إشراف بشري على القرارات ذات الأثر الكبير، وضمان الشفافية حول عمل نظام الذكاء الاصطناعي، واختبار التحيز التمييزي. ويجب تحديث هذه التقييمات طوال دورة حياة النظام بواسطة فرق مهنية مؤهلة تمتلك خبرة تقنية وعلمية وقانونية.






