لماذا هذه المعاهدة مختلفة عن كل ما سبقها
منذ عام 2019، تراكمت عشرات أطر حوكمة الذكاء الاصطناعي: مبادئ الذكاء الاصطناعي للـ OECD، وتوصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي، وعملية G7 هيروشيما، والأمر التنفيذي الأمريكي بشأن الذكاء الاصطناعي، وقانون الذكاء الاصطناعي الأوروبي نفسه. ما يشترك فيه جميعها — باستثناء قانون الذكاء الاصطناعي الأوروبي — هو طابعها غير الملزم؛ فهي تُرسّخ مبادئ مشتركة لكنها لا تُنشئ التزامات قانونية على الدول الموقّعة أو مؤسساتها المحلية.
الاتفاقية الإطارية لمجلس أوروبا بشأن الذكاء الاصطناعي (رسميًا CETS رقم 225) مختلفة جوهريًا. فُتحت للتوقيع في 5 سبتمبر 2024، وهي أول معاهدة دولية للذكاء الاصطناعي تُنشئ التزامات قانونية ملزمة على الدول التي تُصادق عليها. حين صوّت البرلمان الأوروبي في 11 مارس 2026 على التصديق عليها، أطلق مسارًا يُلزم الدول الـ27 الأعضاء في الاتحاد الأوروبي — فضلًا عن 50+ موقّعًا آخر — بمواءمة أنظمتها المحلية لحوكمة الذكاء الاصطناعي مع متطلبات الاتفاقية.
هذه المتطلبات جوهرية وتشمل:
- تقييمات المخاطر قبل نشر أنظمة الذكاء الاصطناعي التي قد تؤثر على الحقوق الأساسية
- آليات الشفافية لتمكين المتضررين من فهم كيفية اتخاذ قرارات الذكاء الاصطناعي
- هياكل المساءلة التي تُحدد المسؤولية عن مخرجات أنظمة الذكاء الاصطناعي
- حماية عدم التمييز في جميع القرارات التي تُتيح فيها الذكاء الاصطناعي
- الحق في الطعن في القرارات المُتخذة بواسطة الذكاء الاصطناعي — وهو ضمانة إجرائية لم تُقنّنها معظم الأطر القائمة
من وقّع وما يعنيه ذلك
قائمة موقّعي الاتفاقية أوسع جغرافيًا من أي صك سابق لحوكمة الذكاء الاصطناعي. يشمل الموقّعون حتى مطلع 2026 الاتحادَ الأوروبي (بوصفه كتلة)، وكندا، والمملكة المتحدة، والولايات المتحدة، واليابان، والنرويج، وأيسلندا، وسويسرا، وأوكرانيا، وأوروغواي، وغيرها — أكثر من 50 طرفًا إجمالًا. ليست صكًّا أوروبيًا خالصًا؛ بل أول إطار لحوكمة الذكاء الاصطناعي يمتد عبر الاقتصادات الديمقراطية الكبرى في أربع قارات.
الاتساع مهم لسبب محدد: التشرذم التنظيمي للذكاء الاصطناعي كان المحرك الرئيسي لتكاليف الامتثال بالنسبة لشركات التكنولوجيا متعددة الجنسيات. تواجه شركة تنشر الذكاء الاصطناعي في الرعاية الصحية في خمس ولايات قضائية خمسة أطر مختلفة لتقييم المخاطر، وخمسة متطلبات شفافية مختلفة، وخمسة أنظمة مساءلة مختلفة. تُنشئ الاتفاقية الإطارية قاعدة مشتركة — حدًّا أدنى يجب على جميع الولايات القضائية الموقّعة تطبيقه.
الصورة الغائبة لا تقل أهمية: الصين والهند وروسيا والبرازيل لم توقّع. يُفرز ذلك انقسامًا في الحوكمة بدأ الباحثون في تسميته مشكلة “التوافق الديمقراطي للذكاء الاصطناعي”: تُحدّد الاتفاقية الإطارية فعليًا منطقة لحوكمة الذكاء الاصطناعي مبنية على مبادئ حقوق الإنسان والمساءلة، مستقلةً عن أنظمة نشر الذكاء الاصطناعي في الدول غير الموقّعة.
إعلان
كيف تتعلق الاتفاقية بقانون الذكاء الاصطناعي الأوروبي
الاتفاقية الإطارية وقانون الذكاء الاصطناعي الأوروبي ليسا الصك نفسه، وفهم العلاقة بينهما أمر جوهري لفرق الامتثال.
قانون الذكاء الاصطناعي الأوروبي قطاعي ومفصّل: يُصنّف أنظمة الذكاء الاصطناعي حسب مستوى المخاطر، ويفرض متطلبات تقنية محددة للمطابقة لأنظمة الخطر المرتفع المدرجة في الملحق الثالث، ويشترط وضع علامة CE وإنشاء قاعدة بيانات للتسجيل.
الاتفاقية الإطارية قائمة على المبادئ وشاملة: تُرسي الحد الأدنى المتعلق بحقوق الإنسان والمساءلة الذي يجب أن تعكسه القوانين الوطنية. العلاقة تكاملية: قانون الذكاء الاصطناعي الأوروبي هو الأداة التي تُطبّق بها الاتحادُ الأوروبي الاتفاقيةَ الإطارية على المستوى التقني. أما الدول غير الأوروبية الموقّعة على الاتفاقية — كندا والمملكة المتحدة واليابان والولايات المتحدة — فستحتاج تشريعاتها المحلية للذكاء الاصطناعي إلى التطور لتفي بالتزامات الاتفاقية، مما يخلق ضغط تقارب سيُقرّب التنظيم الدولي للذكاء الاصطناعي تدريجيًا من المعيار الأوروبي.
ما يجب على مسؤولي الامتثال وقادة المؤسسات فعله
1. رسم خريطة مخزون الذكاء الاصطناعي مقابل التزامات الاتفاقية — لا فقط فئات قانون الذكاء الاصطناعي الأوروبي
تنطبق التزامات الاتفاقية الإطارية على أي نظام ذكاء اصطناعي مُنشر في ولاية قضائية موقّعة، بصرف النظر عن بلوغه عتبة الملحق الثالث للذكاء الاصطناعي عالي الخطورة في قانون الذكاء الاصطناعي الأوروبي. فرق الامتثال التي اقتصرت برامجها على فئات الذكاء الاصطناعي عالي الخطورة في قانون الذكاء الاصطناعي الأوروبي قد تعاني من فجوات جوهرية. تستلزم الاتفاقية مخزونًا أشمل: جميع أنظمة الذكاء الاصطناعي التي يمكنها التأثير على الحقوق الأساسية بغض النظر عن درجة المخاطرة.
2. دمج آليات الطعن وسبل الانتصاف في مسارات عمل نشر الذكاء الاصطناعي
يُعدّ الحق في الطعن في القرارات المُتخذة بواسطة الذكاء الاصطناعي أكثر متطلبات الاتفاقية تطلبًا تشغيليًا لمعظم المؤسسات. معظم مسارات عمل نشر الذكاء الاصطناعي الحالية — ولا سيما في الموارد البشرية والائتمان ومراقبة المحتوى — تُنتج قرارات دون مسارات طعن مدمجة. تشترط الاتفاقية أن تتوفر للأفراد المتضررين آلية ذات معنى للطعن في قرارات الذكاء الاصطناعي والحصول على مراجعة بشرية.
3. التعامل مع الاتفاقية باعتبارها معيار الحوكمة طويل الأمد، لا قانون الذكاء الاصطناعي الأوروبي
قانون الذكاء الاصطناعي الأوروبي هو تطبيق واحد لمعيار دولي أشمل — الاتفاقية الإطارية — ستُشكّل التنظيم العالمي للذكاء الاصطناعي للعقد القادم. الشركات التي تبني برامج حوكمة ذكائها الاصطناعي وفق مبادئ الاتفاقية ستكون في موقع أفضل مع التطور التنظيمي في الولايات القضائية الموقّعة غير الأوروبية.
الصورة الكبرى: منطقة ديمقراطية لحوكمة الذكاء الاصطناعي
الأهمية الحقيقية للاتفاقية الإطارية معمارية لا تشغيلية. للمرة الأولى، أنشأ تحالف من أكثر من 50 دولة ديمقراطية معيارًا قانونيًا مشتركًا لحوكمة الذكاء الاصطناعي ملزمًا بموجب القانون الدولي. هذا ليس توافقًا من القانون اللين — بل معاهدة بالتزامات تصديق ومتطلبات تنفيذ وطني وجهاز مراقبة مؤسسي لمجلس أوروبا خلفه.
مشهد حوكمة الذكاء الاصطناعي الناجم عن ذلك ليس معيارًا عالميًا واحدًا — غياب الصين والهند وروسيا يُضمن ذلك — لكنه منطقة حوكمة مستقرة ذات أساس قانوني تغطي معظم الاقتصادات الديمقراطية العالمية وحصة معتبرة من نشر الذكاء الاصطناعي عالميًا.
الأسئلة الشائعة
ما الفرق بين اتفاقية الذكاء الاصطناعي لمجلس أوروبا وقانون الذكاء الاصطناعي الأوروبي؟
الاتفاقية الإطارية معاهدة دولية قائمة على المبادئ، وقّعتها 50+ دولة، تُرسّخ الحد الأدنى المتعلق بحقوق الإنسان والمساءلة لحوكمة الذكاء الاصطناعي عالميًا. أما قانون الذكاء الاصطناعي الأوروبي فهو التطبيق التقني المفصّل للاتحاد الأوروبي — يُصنّف أنظمة الذكاء الاصطناعي حسب درجة الخطورة، ويفرض متطلبات مطابقة محددة لأنظمة الملحق الثالث، وينشئ آلية إنفاذ على مستوى الاتحاد. الاتفاقية تُحدد “لماذا”؛ وقانون الذكاء الاصطناعي يُحدد “كيف” للدول الأعضاء في الاتحاد الأوروبي.
هل الاتفاقية الإطارية ملزمة قانونًا، وما الذي يحدث إذا لم تمتثل دولة ما؟
نعم — الاتفاقية الإطارية معاهدة دولية ملزمة قانونًا تحت رعاية مجلس أوروبا. يجب على الدول المصادِقة مواءمة قوانينها المحلية مع أحكامها. سيُقيّم جهاز مراقبة مجلس أوروبا التنفيذ دوريًا. غير أن الاتفاقية تفتقر إلى آليات عقوبات مباشرة مماثلة لآليات إنفاذ الاتحاد الأوروبي — يُطبَّق الامتثال في المقام الأول عبر المحاكم الوطنية وعمليات المراجعة بين الأقران.
أي الأمم الكبرى المُنشِئة للذكاء الاصطناعي لم توقّع، وهل يُفرز ذلك فجوة في الحوكمة؟
الصين والهند وروسيا والبرازيل هي الغائبون الأكثر أهمية. غيابهم يعني أن الاتفاقية الإطارية تُنظّم “منطقة التوافق الديمقراطي للذكاء الاصطناعي” لكن ليس نشر الذكاء الاصطناعي العالمي بشكل شامل. هذه الفجوة في الحوكمة هي التحدي المحوري الذي يسعى حوار الأمم المتحدة العالمي حول حوكمة الذكاء الاصطناعي (المقرر في يوليو 2026 في جنيف) إلى معالجته.
—
المصادر والقراءات الإضافية
- البرلمان الأوروبي يؤيد ختام الاتفاقية الإطارية لمجلس أوروبا بشأن الذكاء الاصطناعي — مجلس أوروبا
- الاتحاد الأوروبي يُصادق على أول معاهدة دولية لحوكمة الذكاء الاصطناعي — FEBIS
- الاتفاقية الإطارية بشأن الذكاء الاصطناعي — ويكيبيديا
- تقرير لجنة البرلمان الأوروبي حول تصديق اتفاقية الذكاء الاصطناعي — البرلمان الأوروبي















