في الأول من أغسطس 2024، دخل قانون الذكاء الاصطناعي الصادر عن الاتحاد الأوروبي حيز التنفيذ — وتغير عالم تنظيم الذكاء الاصطناعي إلى الأبد. فلأول مرة في التاريخ، أصدر تكتل اقتصادي كبير قواعد شاملة وملزمة قانونياً تحكم كيفية تطوير ونشر واستخدام الذكاء الاصطناعي عبر جميع قطاعات الاقتصاد تقريباً.
يمثل قانون الذكاء الاصطناعي الأوروبي للذكاء الاصطناعي ما مثّله اللائحة العامة لحماية البيانات (GDPR) لخصوصية البيانات: زلزال تنظيمي ستُحسّ ارتداداته على مستوى العالم، وليس في أوروبا فحسب. فالشركات في الولايات المتحدة وآسيا وغيرها بدأت بالفعل في إعادة هيكلة برامج حوكمة الذكاء الاصطناعي والفرق القانونية وخطوط إنتاج المنتجات للامتثال. إن فهم القانون — نطاقه ومتطلباته وعقوباته وجداوله الزمنية — أصبح الآن كفاءة أساسية لأي شخص يبني أو ينشر الذكاء الاصطناعي في عام 2026.
المنطق الجوهري: إطار عمل قائم على المخاطر
على عكس الحظر الشامل أو التوجيهات الطوعية، ينظّم قانون الذكاء الاصطناعي الأوروبي أنظمة الذكاء الاصطناعي في أربعة مستويات للمخاطر. تعتمد التزاماتك بالكامل على موقع نظامك في هذا التصنيف.
المستوى الأول: مخاطر غير مقبولة — محظورة
تم حظر ممارسات الذكاء الاصطناعي التالية بشكل كامل اعتباراً من 2 فبراير 2025:
- التقييم الاجتماعي من قبل السلطات العامة: استخدام الذكاء الاصطناعي لتقييم جدارة المواطنين بالثقة للخدمات الحكومية، كما يُمارس في بعض الدول
- التلاعب اللاواعي: أنظمة الذكاء الاصطناعي التي تستخدم تقنيات تتجاوز القرار الواعي لتشويه السلوك بشكل جوهري ضد مصالح المستخدمين
- الشرطة التنبؤية القائمة على التنميط فقط: استخدام الذكاء الاصطناعي للتنبؤ بالسلوك الإجرامي من أنماط ديموغرافية أو سلوكية وحدها، دون أدلة إضافية
- التعرف على المشاعر في أماكن العمل والمدارس: باستثناء حالات طبية أو أمنية محددة
- التعريف البيومتري في الوقت الفعلي في الأماكن العامة لأغراض إنفاذ القانون: مع استثناءات ضيقة تتطلب موافقة قضائية
أي شركة تشغّل مثل هذه الأنظمة في الاتحاد الأوروبي بعد 2 فبراير 2025 تواجه أعلى مستوى من العقوبات.
المستوى الثاني: مخاطر عالية — متطلبات صارمة
أنظمة الذكاء الاصطناعي عالية المخاطر مسموح بها لكنها تواجه متطلبات امتثال إلزامية. يحدد القانون ثمانية مجالات تطبيق حرجة كعالية المخاطر:
- التعريف البيومتري (ما يتجاوز حالات الاستخدام المحظورة)
- البنية التحتية الحيوية (المياه والطاقة والنقل)
- التعليم والتدريب المهني (تقييم الطلاب وقرارات القبول)
- التوظيف والموارد البشرية (فرز السير الذاتية وتقييم المقابلات ومراقبة الأداء)
- الخدمات العامة والخاصة الأساسية (التقييم الائتماني والتأمين وقرارات المنافع)
- إنفاذ القانون (تقييم الأدلة وأنظمة كشف الكذب)
- الهجرة واللجوء ومراقبة الحدود
- إدارة العدالة (التنبؤ بنتائج القضايا)
تشمل متطلبات الأنظمة عالية المخاطر:
- نظام إدارة المخاطر (موثّق ومحدّث باستمرار)
- مجموعات بيانات عالية الجودة للتدريب والتحقق والاختبار
- التوثيق التقني وتسجيل الأنشطة
- الشفافية وتوفير المعلومات للمستخدمين
- آليات الرقابة البشرية
- معايير المتانة والدقة والأمن السيبراني
المستوى الثالث: مخاطر محدودة — التزامات الشفافية
يجب على أنظمة الذكاء الاصطناعي مثل روبوتات المحادثة ومولّدات التزييف العميق (Deepfake) وأدوات التعرف على المشاعر الإفصاح بوضوح عن أن المستخدمين يتفاعلون مع ذكاء اصطناعي. هذا هو متطلب “يجب أن تعلم أنك تتحدث مع روبوت”.
المستوى الرابع: مخاطر دنيا — لا التزامات محددة
مرشحات البريد العشوائي المدعومة بالذكاء الاصطناعي وأنظمة التوصية والذكاء الاصطناعي في ألعاب الفيديو — لا تحمل متطلبات محددة بموجب القانون، على الرغم من أن قوانين الاتحاد الأوروبي العامة تظل سارية.
قواعد GPAI: لمزودي نماذج الأساس
جلب الموعد النهائي في 2 أغسطس 2025 متطلبات مخصصة لمزودي نماذج الذكاء الاصطناعي للأغراض العامة (GPAI) — الشركات التي تبني نماذج الأساس مثل GPT و Gemini و Llama و Claude و Mistral.
يجب على جميع مزودي GPAI العاملين في الاتحاد الأوروبي:
- التوثيق التقني: توثيق شامل لبنية النموذج وبيانات التدريب وإجراءات التدريب والمتطلبات الحسابية وخصائص الأداء
- دعم المزودين المتلقين: تقديم معلومات تقنية للشركات التي تبني فوق نماذجهم
- الامتثال لحقوق النشر: تطبيق سياسات تحترم قانون حقوق النشر الأوروبي؛ تدريب النماذج على بيانات مكتسبة بشكل قانوني
- شفافية بيانات التدريب: نشر “ملخصات مفصّلة بشكل كافٍ” لمحتوى بيانات التدريب
تواجه نماذج GPAI ذات المخاطر النظامية (تلك التي تتجاوز 10^25 FLOPs في حساب التدريب، أي تقريباً فئة GPT-4) متطلبات إضافية:
- تقييم النماذج واختبار الخصوم (الفريق الأحمر)
- الإبلاغ عن الحوادث لمكتب الذكاء الاصطناعي الأوروبي
- تدابير الأمن السيبراني للنموذج وبنيته التحتية
- تقارير كفاءة الطاقة
تقويم التنفيذ: التواريخ الرئيسية
| التاريخ | ما حدث / سيحدث |
|---|---|
| 1 أغسطس 2024 | دخل قانون الذكاء الاصطناعي حيز التنفيذ |
| 2 فبراير 2025 | حظر ممارسات الذكاء الاصطناعي المحظورة؛ بدء التزامات محو الأمية في الذكاء الاصطناعي |
| 2 أغسطس 2025 | دخول قواعد الحوكمة والتزامات GPAI حيز التنفيذ |
| 2 أغسطس 2026 | تطبيق التزامات أنظمة الذكاء الاصطناعي عالية المخاطر بالكامل (الموعد النهائي الرئيسي للامتثال) |
| 2 أغسطس 2027 | يجب امتثال الذكاء الاصطناعي عالي المخاطر المدمج في المنتجات المنظمة (الأجهزة الطبية والمركبات) |
2 أغسطس 2026 هو الموعد النهائي الحاسم. يجب أن تكون الشركات التي لديها أنظمة ذكاء اصطناعي عالية المخاطر قد أنجزت:
- تقييم المطابقة الكامل
- التوثيق التقني
- علامة CE (عند الاقتضاء)
- التسجيل في قاعدة بيانات أنظمة الذكاء الاصطناعي الأوروبية
العقوبات: الأرقام التي تشغل الأذهان
تعد غرامات قانون الذكاء الاصطناعي الأوروبي من أهم الغرامات في تاريخ تنظيم التكنولوجيا:
| المخالفة | الغرامة القصوى |
|---|---|
| ممارسات الذكاء الاصطناعي المحظورة (المستوى الأول) | 35 مليون يورو أو 7% من الإيرادات السنوية العالمية |
| عدم امتثال الأنظمة عالية المخاطر | 15 مليون يورو أو 3% من الإيرادات السنوية العالمية |
| تقديم معلومات غير صحيحة للسلطات | 7.5 مليون يورو أو 1% من الإيرادات السنوية العالمية |
بالنسبة للمؤسسات الصغيرة والمتوسطة والشركات الناشئة، تُطبّق حدود قصوى تناسبية، لكن هيكل النسبة المئوية من الإيرادات يعني أن الشركات الكبيرة تواجه أرقاماً مطلقة ضخمة. فشركة بإيرادات 10 مليارات يورو قد تواجه غرامة قدرها 700 مليون يورو بسبب ممارسات ذكاء اصطناعي محظورة.
قارن هذا بالحد الأقصى للائحة العامة لحماية البيانات (GDPR): 4% من الإيرادات السنوية العالمية. سقف 7% في قانون الذكاء الاصطناعي أقوى.
النطاق خارج الحدود: لماذا يؤثر هذا على العالم بأسره
مثل GDPR، يتمتع قانون الذكاء الاصطناعي الأوروبي بتطبيق خارج نطاق الحدود الإقليمية. يجب عليك الامتثال إذا:
- تم طرح نظام الذكاء الاصطناعي الخاص بك في السوق الأوروبية
- كنت تقدم خدمات ذكاء اصطناعي لمستخدمين أوروبيين
- كان ناتج نظام الذكاء الاصطناعي الخاص بك يُستخدم في الاتحاد الأوروبي
هذا يعني أن شركة أمريكية تقدم أداة فحص موارد بشرية بالذكاء الاصطناعي لشركات أوروبية يجب أن تمتثل لأحكام المخاطر العالية — حتى لو لم يكن لديها مكتب في أوروبا. هذا هو بالضبط النمط الذي أرسته GDPR، والذي أثبت فعاليته.
لذلك فإن الشركات العالمية التي تبني منتجات ذكاء اصطناعي لا تبني برامج امتثال منفصلة لأوروبا — بل تبني حوكمة ذكاء اصطناعي عالمية وفق المعايير الأوروبية وتطبقها في كل مكان.
إعلان
من المسؤول عن ماذا؟
يميز القانون بين الأدوار:
المزوّد: الكيان الذي يطوّر نظام الذكاء الاصطناعي ويطرحه في السوق. يتحمل المسؤولية الأساسية عن الامتثال للأنظمة عالية المخاطر.
المنشِر: المنظمات التي تستخدم نظام ذكاء اصطناعي عالي المخاطر في سياقات مهنية. يجب عليها تنفيذ تعليمات المستخدم والحفاظ على السجلات وإجراء الرقابة البشرية والإبلاغ عن الحوادث الخطيرة.
المستورد/الموزّع: الكيانات التي توزع أنظمة الذكاء الاصطناعي. يجب عليها التحقق من استيفاء المزوّد للمتطلبات.
هذا يخلق سلسلة امتثال: لا يمكن للمزودين ببساطة دفع الالتزامات إلى المنشِرين، ولا يمكن للمنشِرين افتراض أن المزودين تعاملوا مع كل شيء.
مكتب الذكاء الاصطناعي الأوروبي: سلطة إنفاذ جديدة
أنشأ القانون مكتب الذكاء الاصطناعي الأوروبي ضمن المفوضية الأوروبية — أول هيئة على مستوى الاتحاد الأوروبي تتمتع بسلطة إنفاذ مباشرة على الذكاء الاصطناعي. يقوم بـ:
- الإشراف على امتثال نماذج GPAI عبر الاتحاد الأوروبي
- التحقيق في حوادث أنظمة الذكاء الاصطناعي
- التنسيق مع السلطات الوطنية المختصة
- إجراء تقييمات النماذج وطلب الوصول إلى بيانات التدريب
تعيّن الدول الأعضاء في الاتحاد الأوروبي سلطات وطنية مختصة للإنفاذ المحلي — على غرار الطريقة التي تنفّذ بها سلطات حماية البيانات (DPAs) اللائحة العامة لحماية البيانات محلياً. تعد CNIL الفرنسية و BfDI الألمانية و DPC الأيرلندية من بين الأكثر نشاطاً.
ما تفعله الشركات فعلياً للاستعداد
بناءً على تقارير شركات الاستشارات واستطلاعات المؤسسات:
إجراء جرد أنظمة الذكاء الاصطناعي
تكتشف معظم المؤسسات أن لديها أنظمة ذكاء اصطناعي منشورة أكثر بكثير مما كان يدركه أي شخص. الذكاء الاصطناعي الظلي — الأدوات التي تتبناها الفرق الفردية دون مشتريات رسمية — هو اكتشاف رئيسي في معظم عمليات التدقيق.
بناء أطر حوكمة الذكاء الاصطناعي
تعيّن الشركات مسؤولين عن امتثال الذكاء الاصطناعي وتشكّل مجالس أخلاقيات الذكاء الاصطناعي وتنشئ عمليات داخلية لتقييم أنظمة الذكاء الاصطناعي مقابل مستويات مخاطر القانون قبل النشر.
تحديث عقود الموردين
تضيف فرق المشتريات بنود “الامتثال لقانون الذكاء الاصطناعي الأوروبي” إلى العقود مع بائعي الذكاء الاصطناعي ومزودي البرمجيات ومنصات الحوسبة السحابية.
الاستثمار في التوثيق التقني
متطلبات التوثيق في القانون — بيانات التدريب وبنية النموذج واختبار الأداء — تتطلب من الفرق الهندسية إنتاج سجلات لم تحتفظ بها تاريخياً في كثير من الأحيان.
اختبار الفريق الأحمر واختبار الخصوم
يبني مزودو GPAI ذوو نماذج المخاطر النظامية قدرات اختبار الفريق الأحمر. كان هذا يتم سابقاً بشكل غير رسمي؛ يجعله القانون متطلباً قانونياً.
التأثير المتسلسل العالمي
يؤثر قانون الذكاء الاصطناعي الأوروبي بالفعل على سياسة الذكاء الاصطناعي في جميع أنحاء العالم:
- المملكة المتحدة: يتولى معهد سلامة الذكاء الاصطناعي (AI Safety Institute)، الذي أُنشئ بعد قمة Bletchley Park، تنسيق اختبارات السلامة الطوعية للنماذج الحدودية
- كندا: يشير قانون الذكاء الاصطناعي والبيانات المقترح (AIDA) صراحةً إلى النهج الأوروبي
- البرازيل: تتوافق الاستراتيجية الوطنية للذكاء الاصطناعي مع مبادئ تصنيف المخاطر الأوروبية
- سنغافورة: يجري تحديث إطار حوكمة الذكاء الاصطناعي النموذجي نحو متطلبات ملزمة
- الصين: لديها قوانينها الخاصة للذكاء الاصطناعي لكنها تراقب نتائج الإنفاذ الأوروبي عن كثب
“تأثير بروكسل” — ميل اللوائح الأوروبية لأن تصبح معايير عالمية فعلية لأن الشركات متعددة الجنسيات تجد أنه من الأسهل تطبيق سياسة عالمية واحدة بدلاً من سياسات إقليمية مجزأة — يعمل بكامل قوته مع الذكاء الاصطناعي.
ما يجب فعله الآن
لأي منظمة تبني أو تنشر ذكاءً اصطناعياً يمس الأسواق الأوروبية:
- رسم خريطة أنظمة الذكاء الاصطناعي: جرد كل أداة ذكاء اصطناعي مستخدمة، بما في ذلك الذكاء الاصطناعي المدمج في منتجات SaaS
- التصنيف حسب مستوى المخاطر: أي الأنظمة عالية المخاطر وفق تعريفات القانون؟
- تقييم التعرض لـ GPAI: إذا كنت تقدم نماذج أساس أو خدمات مبنية عليها، افهم التزاماتك
- بناء التوثيق: ابدأ في إنشاء التوثيق التقني لأنظمة الذكاء الاصطناعي الآن — هذا يستغرق أشهراً وليس أسابيع
- تدريب فريقك: تتطلب التزامات محو الأمية في الذكاء الاصطناعي (المادة 4) أن يتمتع كل من يطوّر أو يدير الذكاء الاصطناعي بالكفاءة المناسبة
- الاستعانة بمستشار قانوني: أصبح الامتثال لقانون الذكاء الاصطناعي معقداً بما يكفي ليجعل الاستشارة القانونية المتخصصة ضرورة وليست رفاهية
الخلاصة
يُعد قانون الذكاء الاصطناعي الأوروبي أهم تطور في سياسة الذكاء الاصطناعي في التاريخ. إنه يحوّل الذكاء الاصطناعي من مساحة غير منظمة إلى صناعة منظمة — بقواعد واضحة ومساءلة واضحة وعواقب جدية لعدم الامتثال.
الشركات التي ستستفيد أكثر من هذه اللحظة التنظيمية ليست بالضرورة تلك التي تمتلك أقوى ذكاء اصطناعي. بل هي تلك التي تمتلك الذكاء الاصطناعي الأكثر موثوقية — الموثّق والمختبَر والخاضع للرقابة البشرية والمُبلَّغ عنه بشفافية للمستخدمين الذين يتأثرون به.
الموعد النهائي في 2 أغسطس 2026 ليس بعيداً. بالنسبة للمنظمات التي لم تبدأ رحلة الامتثال بعد، الوقت هو الآن.
إعلان
رادار القرار (العدسة الجزائرية)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — يجب على الشركات الجزائرية المصدّرة إلى أسواق الاتحاد الأوروبي أو الشريكة معها (Sonatrach و Cevital و Condor Electronics) فهم التزامات قانون الذكاء الاصطناعي الأوروبي. أي نظام ذكاء اصطناعي يصل ناتجه إلى مستخدمين أوروبيين يُفعّل متطلبات الامتثال بموجب النطاق خارج الحدود الإقليمية للقانون. تواجه الشركات الناشئة الجزائرية الناشئة في مجال الذكاء الاصطناعي التي تبني منتجات SaaS لعملاء أوروبيين تعرضاً مباشراً. |
| جاهزية البنية التحتية؟ | لا — تفتقر الجزائر إلى هيئة تنظيمية مخصصة للذكاء الاصطناعي أو إطار وطني لحوكمة الذكاء الاصطناعي. تغطي ARPT (منظم الاتصالات) و ANSSI (الأمن السيبراني) مجالات مجاورة لكن ليس لديهما صلاحية خاصة بالذكاء الاصطناعي. لا توجد بنية تحتية لتقييم المطابقة محلياً. |
| توفر المهارات؟ | جزئي — ينتج CERIST والجامعات (USTHB و ESI) كفاءات بحثية في الذكاء الاصطناعي، لكن خبرة حوكمة الذكاء الاصطناعي والامتثال والقانون المتوافقة مع الأطر التنظيمية الأوروبية نادرة للغاية. لا توجد شركات محاماة محلية متخصصة في الامتثال لقانون الذكاء الاصطناعي الأوروبي. |
| الجدول الزمني للعمل | 6-12 شهراً — يخلق الموعد النهائي لأغسطس 2026 للمخاطر العالية إلحاحاً لأي كيان جزائري لديه نشر ذكاء اصطناعي موجه نحو الاتحاد الأوروبي. قد ترث شركات مثل Djezzy و Mobilis (ذات الشركات الأم الأوروبية Veon و Vimpelcom) التزامات الامتثال من خلال هياكلها المؤسسية. |
| أصحاب المصلحة الرئيسيون | وزارة الاقتصاد الرقمي والمقاولات الناشئة، ANSSI، ARPT، Sonatrach (شراكات الطاقة مع الاتحاد الأوروبي التي تستخدم الذكاء الاصطناعي)، Cevital (عمليات التصدير إلى الاتحاد الأوروبي)، Condor Electronics، Djezzy، Mobilis، Algeria Telecom، CERIST، باحثو الذكاء الاصطناعي في ESI/USTHB، الشركات الناشئة الجزائرية التي تستهدف أسواق الاتحاد الأوروبي |
| نوع القرار | استراتيجي / تعليمي — يجب على صانعي السياسات الجزائريين دراسة قانون الذكاء الاصطناعي الأوروبي كنموذج لتنظيم الذكاء الاصطناعي المحلي المستقبلي. تحتاج المؤسسات المعرّضة للاتحاد الأوروبي إلى تخطيط تكتيكي للامتثال الآن. |
الخلاصة السريعة: يعني النطاق خارج الحدود الإقليمية لقانون الذكاء الاصطناعي الأوروبي أن أي شركة جزائرية تنشر ذكاءً اصطناعياً يمس أسواق الاتحاد الأوروبي أو شركاءه يجب أن تمتثل — هذا ليس اختيارياً. لا تمتلك الجزائر حالياً إطاراً تنظيمياً محلياً للذكاء الاصطناعي، مما يجعل القانون الأوروبي معياراً مرجعياً فعلياً للمؤسسات الجزائرية التي تتجه نحو العالمية. يجب على وزارة الاقتصاد الرقمي والمقاولات الناشئة تسريع العمل على استراتيجية وطنية لحوكمة الذكاء الاصطناعي، مستلهمةً من النموذج القائم على المخاطر للاتحاد الأوروبي مع تكييفه لأولويات الجزائر الاقتصادية.
المصادر والقراءات الإضافية
- EU AI Act Official Text — artificialintelligenceact.eu
- European Commission AI Policy — digital-strategy.ec.europa.eu
- DLA Piper — EU AI Act Wave of Obligations — dlapiper.com
- Secure Privacy — EU AI Act 2026 Compliance Guide — secureprivacy.ai
- DataGuard — EU AI Act Timeline — dataguard.com
إعلان