عندما لا يكون أحد مسؤولاً، لا يُحاسَب أحد
في القضية البارزة Mobley v. Workday، تقدّم Derek Mobley — وهو أمريكي من أصل أفريقي تجاوز الأربعين من العمر ويعاني من إعاقة — بطلبات توظيف لأكثر من 100 وظيفة عبر شركات تستخدم منصة الفرز بالذكاء الاصطناعي التابعة لشركة Workday. رُفض في كل مرة دون الحصول على مقابلة واحدة. وعندما رفع دعوى قضائية، كان السؤال القانوني بسيطاً في ظاهره ومعقداً في جوهره: من المسؤول؟
أكد أصحاب العمل أنهم اعتمدوا على منصة Workday بحسن نية. وصرّحت Workday بأن نظامها يعكس البيانات والتفضيلات التي قدّمها أصحاب العمل. وأشار مزوّد الحوسبة السحابية (Cloud) الذي يستضيف النموذج إلى أنه لا يقدّم سوى البنية التحتية الحاسوبية. في يونيو 2025، اعتمدت محكمة اتحادية في المنطقة الشمالية من California القضية كدعوى جماعية بموجب قانون التمييز على أساس السن في التوظيف (Age Discrimination in Employment Act)، مما يُغطي محتملاً ملايين المتقدمين — ويُرسي مبدأ أن مزوّدي أدوات الذكاء الاصطناعي يمكن مقاضاتهم مباشرة بصفتهم “وكلاء” بموجب قوانين التمييز في التوظيف.
هذه هي الفجوة القانونية للذكاء الاصطناعي: أنظمة الذكاء الاصطناعي الحديثة تُبنى من قِبل سلاسل من الفاعلين — مزوّدي البيانات، ومطوّري النماذج، ومشغّلي المنصات، والمدمجين، والناشرين — والأطر القانونية القائمة، المصمَّمة لعالم كان فيه مُصنِّع واحد ينتج منتجاً واحداً يتسبب في ضرر واحد، تعجز عن توزيع المسؤولية عبر هذه السلسلة.
الفجوة ليست نظرية. أنظمة الذكاء الاصطناعي تتخذ قرارات مصيرية في الموافقة على القروض، والتشخيص الطبي، وتحديد الأحكام الجنائية، وتسعير التأمين، والتوظيف، وإدارة المحتوى. وعندما تكون هذه القرارات خاطئة، فإن السؤال عمّن يتحمّل تبعات الضرر لا يملك إجابة واضحة في معظم الولايات القضائية.
إشكالية مسؤولية المنتجات
يقوم قانون مسؤولية المنتجات (Product Liability) التقليدي على نموذج بسيط: يُصنّع المُنتِج منتجاً معيباً، يتضرر المستهلك من العيب، ويتحمّل المُصنّع المسؤولية. يعمل هذا النموذج مع السيارات والأجهزة المنزلية والأدوية لأن:
- المنتج له حالة محدَّدة وقت البيع
- يمكن تحديد العيب (عيب في التصميم، أو عيب في التصنيع، أو إخلال بواجب التحذير)
- السببية قابلة للتتبع (تعطّل الفرامل مما تسبب في الحادث)
- المُصنّع قابل للتحديد
الذكاء الاصطناعي يُخلّ بكل هذه الافتراضات:
لا حالة محدَّدة: كثير من أنظمة الذكاء الاصطناعي تُحدَّث باستمرار — النموذج الذي يولّد التوقعات اليوم قد يختلف عن النموذج المنشور الأسبوع الماضي. نماذج الأساس (Foundation Models) تُضبط وتُعاد تدريبها وتُثرى ببيانات جديدة. أي نسخة تُعتبر “المنتج”؟
سلوك ناشئ مقابل عيب: أنظمة الذكاء الاصطناعي تُبدي سلوكيات لم تُبرمج صراحةً ولا يمكن التنبؤ بها من بيانات التدريب أو البنية المعمارية. عندما ينتج نموذج لغوي كبير (LLM) توصية طبية مُهلوَسة، هل هذا “عيب” في المنتج أم خاصية متأصلة في التكنولوجيا؟ التمييز بالغ الأهمية لتحديد المسؤولية.
غموض السببية: في قضية مسؤولية منتجات تقليدية، يستطيع خبير فحص المنتج وشرح سلسلة السببية. في الذكاء الاصطناعي، عملية صنع القرار في الشبكات العصبية العميقة (Deep Neural Networks) غامضة — حتى بالنسبة للمطورين أنفسهم. قد يكون شرح سبب رفض نظام ذكاء اصطناعي لطلب قرض محدد أو تصنيف شخص معين كتهديد أمني مستحيلاً تقنياً بأساليب التفسير الحالية.
مسؤولية موزَّعة: الضرر الناجم عن الذكاء الاصطناعي يشمل عادةً أطرافاً متعددة: الشركة التي جمعت بيانات التدريب، والشركة التي درّبت نموذج الأساس، والشركة التي ضبطته لحالة استخدام محددة، والشركة التي نشرته في بيئة الإنتاج، والشركة التي اتخذت قراراً تجارياً بناءً على مخرجاته. أي طرف هو “المُصنّع”؟
النهج الأوروبي: قانون الذكاء الاصطناعي + توجيه مسؤولية المنتجات
اتخذ الاتحاد الأوروبي النهج التنظيمي الأشمل في مجال مسؤولية الذكاء الاصطناعي من خلال أداتين متكاملتين.
قانون الذكاء الاصطناعي الأوروبي (EU AI Act) (ساري المفعول منذ أغسطس 2024، التزامات الأنظمة عالية المخاطر تسري في أغسطس 2026)
يُصنّف القانون أنظمة الذكاء الاصطناعي حسب مستوى المخاطر ويفرض التزامات مقابلة:
- مخاطر غير مقبولة (محظورة): التنقيط الاجتماعي (Social Scoring)، وتحديد الهوية البيومترية في الأماكن العامة في الوقت الفعلي (مع استثناءات ضيقة)، وتقنيات التلاعب التي تستهدف الفئات الهشة. دخلت الحظورات حيز التنفيذ في 2 فبراير 2025.
- مخاطر عالية (منظَّمة بصرامة): الذكاء الاصطناعي في البنية التحتية الحيوية، والتعليم، والتوظيف، وإنفاذ القانون، والهجرة، والأنظمة القضائية. يجب أن تستوفي هذه الأنظمة متطلبات جودة البيانات والتوثيق والشفافية والإشراف البشري والدقة والمتانة والأمن السيبراني. الامتثال الكامل مطلوب بحلول 2 أغسطس 2026.
- مخاطر محدودة (التزامات شفافية): روبوتات المحادثة (Chatbots)، ومولّدات التزييف العميق (Deepfake)، وأنظمة التعرف على المشاعر يجب أن تُفصح أن المستخدمين يتفاعلون مع ذكاء اصطناعي.
- مخاطر دنيا (بدون قيود): مرشحات البريد العشوائي، والذكاء الاصطناعي في ألعاب الفيديو، وإدارة المخزون.
ينظّم القانون بشكل رئيسي “المزوّدين” (الشركات التي تطوّر أو تطرح أنظمة ذكاء اصطناعي في السوق) و”الناشرين” (الشركات التي تستخدم أنظمة الذكاء الاصطناعي تحت سلطتها). يجب على مزوّدي الأنظمة عالية المخاطر إجراء تقييمات المطابقة، والحفاظ على التوثيق التقني، وتطبيق أنظمة إدارة المخاطر، والتسجيل في قاعدة بيانات أوروبية. تصل العقوبات إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية.
توجيه مسؤولية المنتجات المعدَّل (الموعد النهائي للتحويل: ديسمبر 2026)
اقترحت المفوضية الأوروبية في الأصل توجيهاً مخصصاً لمسؤولية الذكاء الاصطناعي (AI Liability Directive) في عام 2022 لمعالجة المسؤولية المدنية عن الأضرار التي يسببها الذكاء الاصطناعي. غير أنه بعد فشل التوصل إلى اتفاق بين الدول الأعضاء، سحبت المفوضية المقترح في بداية 2025. بدلاً من ذلك، يعتمد الاتحاد الأوروبي على توجيه مسؤولية المنتجات المعدَّل (Product Liability Directive) الذي دخل حيز التنفيذ في ديسمبر 2024 ويجب تحويله إلى القانون الوطني بحلول 9 ديسمبر 2026.
يُعامل التوجيه المعدَّل البرمجيات صراحةً — بما في ذلك أنظمة الذكاء الاصطناعي وأنظمة التشغيل والبرامج الثابتة (Firmware) والتطبيقات — باعتبارها “منتجات” خاضعة للمسؤولية الصارمة. النقاط الرئيسية المتعلقة بالذكاء الاصطناعي:
- الذكاء الاصطناعي كمنتج: أنظمة الذكاء الاصطناعي خاضعة الآن لنفس نظام المسؤولية الصارمة المطبَّق على السلع المادية. إذا كان نظام ذكاء اصطناعي معيباً وتسبب في ضرر، يتحمّل المنتِج المسؤولية بغض النظر عن الخطأ.
- أضرار موسَّعة: يشمل نطاق الأضرار القابلة للتعويض الآن الأضرار المعترف بها طبياً للصحة النفسية وإتلاف أو تدمير البيانات.
- مسؤولية الأمن السيبراني: يتحمّل المصنّعون المسؤولية عن الأضرار الناجمة عن ثغرات الأمن السيبراني في منتجاتهم.
- الإفصاح عن الأدلة: يمكن للمحاكم أن تأمر المدّعى عليهم بالكشف عن التوثيق التقني ذي الصلة، مما يعالج جزئياً عدم تكافؤ المعلومات بين شركات الذكاء الاصطناعي والأفراد.
إعلان
النهج الأمريكي: فسيفساء تشريعية للولايات في مواجهة الأولوية الفيدرالية
لم تسنّ الولايات المتحدة تشريعاً فيدرالياً شاملاً بشأن مسؤولية الذكاء الاصطناعي. بدلاً من ذلك، تُعالَج المسؤولية من خلال مزيج معقد ومتنازع عليه بشكل متزايد من التنظيم القطاعي وتشريعات الولايات والسوابق القضائية.
التنظيم القطاعي القائم
تُطبّق الوكالات الفيدرالية صلاحياتها الحالية على الذكاء الاصطناعي: إدارة الغذاء والدواء (FDA) تنظّم الأجهزة الطبية القائمة على الذكاء الاصطناعي، ولجنة التجارة الفيدرالية (FTC) تتخذ إجراءات ضد الممارسات الخادعة المتعلقة بالذكاء الاصطناعي، ولجنة تكافؤ فرص التوظيف (EEOC) تعالج التمييز في التوظيف بسبب الذكاء الاصطناعي بموجب الباب السابع (Title VII)، والجهات التنظيمية المصرفية تتعامل مع الذكاء الاصطناعي في الإقراض بموجب قوانين الإقراض العادل.
الطفرة التشريعية في الولايات
بحلول أوائل 2026، تم سنّ 27 قانوناً خاصاً بالذكاء الاصطناعي في 14 ولاية، وقدّمت 47 ولاية مشاريع قوانين متعلقة بالذكاء الاصطناعي في عام 2025 وحده:
- Colorado: سنّت أول قانون ولائي شامل لحماية المستهلك في مجال الذكاء الاصطناعي عام 2024 (SB 24-205)، يُلزم مطوّري وناشري أنظمة الذكاء الاصطناعي عالية المخاطر ببذل العناية المعقولة لحماية المستهلكين من التمييز الخوارزمي. لكن تم تأجيل التنفيذ إلى 30 يونيو 2026.
- California: سنّت عدة قوانين للذكاء الاصطناعي دخلت حيز التنفيذ في 1 يناير 2026، بما في ذلك Transparency in Frontier AI Act وGAI Training Data Transparency Act وSB 53 — أول قانون أمريكي يعالج “المخاطر الكارثية” لنماذج الذكاء الاصطناعي المتقدمة.
- Illinois: عدّلت قانون حقوق الإنسان (HB 3773) لحظر استخدام أصحاب العمل لذكاء اصطناعي يميّز ضد الفئات المحمية وإلزامهم بإخطار المرشحين عند تحليل مقابلات الفيديو بالذكاء الاصطناعي.
- New York: سنّت قانون Responsible AI Safety and Education (RAISE) Act في ديسمبر 2025، النافذ في يناير 2027، مع إنشاء مكتب مخصص للإشراف على الذكاء الاصطناعي ضمن Department of Financial Services.
- Texas: سنّت قانون Responsible AI Governance Act، النافذ في 1 يناير 2026.
مسألة الأولوية الفيدرالية
في 11 ديسمبر 2025، وقّع الرئيس Trump أمراً تنفيذياً بعنوان “ضمان إطار سياسة وطنية للذكاء الاصطناعي”، يستهدف مباشرة الفسيفساء التشريعية للولايات. يوجّه الأمر وزير العدل لإنشاء فريق عمل للتقاضي في مجال الذكاء الاصطناعي للطعن في قوانين الولايات التي تُعتبر متعارضة مع السياسة الفيدرالية، ويربط التمويل الفيدرالي للنطاق العريض بعدم وجود قوانين ذكاء اصطناعي “مرهقة” لدى الولايات، ويوجّه لجنة التجارة الفيدرالية لإصدار توجيهات حول الحالات التي تكون فيها قوانين الولايات مستبعَدة بموجب القانون التجاري الفيدرالي.
ينتقد الأمر صراحةً قانون Colorado لكنه يستثني القوانين المتعلقة بسلامة الأطفال والبنية التحتية للحوسبة والمشتريات الحكومية للذكاء الاصطناعي. نقطة جوهرية: الأوامر التنفيذية لا تستطيع إلغاء قوانين الولايات القائمة — وحده الكونغرس أو المحاكم يستطيع ذلك.
معايير تُحددها السوابق القضائية
في غياب تشريع فيدرالي شامل، تُرسي المحاكم الأمريكية معايير مسؤولية الذكاء الاصطناعي من خلال الدعاوى الفردية:
- المادة 230 (Section 230) والمحتوى المولَّد بالذكاء الاصطناعي: لا يزال السؤال عمّا إذا كانت حصانة المادة 230 للمنصات تمتد إلى المحتوى المولَّد بالذكاء الاصطناعي محل جدل شديد. في قضية Garcia v. Character.AI (2025)، سمح قاضٍ فيدرالي بالمضي في دعاوى مسؤولية المنتجات والإهمال والوفاة غير المشروعة ضد Character AI بعد وفاة مراهق، رافضاً اعتبار مخرجات روبوت المحادثة خطاباً محمياً بالكامل. كما قضت محكمة الدائرة الثالثة (Third Circuit) في قضية Anderson v. TikTok (2024) بأن الترويج الخوارزمي للمحتوى الضار غير محمي بموجب المادة 230.
- الخطأ الطبي المهني والذكاء الاصطناعي: ارتفعت دعاوى التعويض المتعلقة بأدوات الذكاء الاصطناعي بنسبة 14% في 2024 مقارنة بـ 2022، لكن لم تُحسم أي قضية مرجعية بعد. اقترح اتحاد مجالس الطب الحكومية (Federation of State Medical Boards) في 2024 أن الأطباء — وليس صانعي الذكاء الاصطناعي — هم من يجب أن يتحملوا المسؤولية عن الأخطاء المدعومة بالذكاء الاصطناعي.
- مسؤولية المركبات ذاتية القيادة: رفضت Tesla عرض تسوية بقيمة 60 مليون دولار في قضية Benevides، مما أسفر عن حكم بـ 243 مليون دولار يتضمن 200 مليون دولار تعويضات عقابية. أبرمت Cruise اتفاق محاكمة مؤجلة في 2024 بعد حادثة جرّ مشاة في San Francisco. الاتجاه القانوني يُحوّل مسؤولية المركبات ذاتية القيادة من الإهمال إلى مسؤولية المنتجات.
مسؤولية التزييف العميق: الحدود الجديدة
التزييف العميق (Deepfakes) — وسائط اصطناعية مولَّدة بالذكاء الاصطناعي تُصوّر أشخاصاً حقيقيين يفعلون أو يقولون أشياء لم يفعلوها أو يقولوها قط — يمثّل أحد أكثر تحديات المسؤولية حدة.
الصور الحميمية غير التوافقية (NCII): الصور الفاضحة المولَّدة بالذكاء الاصطناعي لأشخاص حقيقيين (تستهدف النساء بشكل طاغٍ) تُشكّل أزمة متصاعدة. في يناير 2024، انتشرت صور فاضحة مولَّدة بالذكاء الاصطناعي لـ Taylor Swift بشكل واسع، مما أطلق موجة تشريعية على المستويين الفيدرالي والولائي. مشروع قانون DEFIANCE Act، الذي كان سيُنشئ مسؤولية مدنية فيدرالية عن الصور الحميمية غير التوافقية المولَّدة بالذكاء الاصطناعي، أُقرّ بالإجماع في مجلس الشيوخ عام 2024 لكنه توقف في مجلس النواب. بدلاً من ذلك، وقّع الرئيس Trump قانون TAKE IT DOWN Act في 19 مايو 2025 — يُجرّم النشر المتعمّد للصور الحميمية غير التوافقية (بما فيها التزييف العميق) ويُلزم المنصات بتطبيق إجراءات الإخطار والإزالة خلال 48 ساعة. تدخل أحكام التنفيذ حيز التطبيق في مايو 2026.
التزييف العميق السياسي: مقاطع الفيديو والصوت المولَّدة بالذكاء الاصطناعي لشخصيات سياسية تُدلي بتصريحات كاذبة تُشكّل تهديداً مباشراً للعمليات الديمقراطية. في يناير 2024، حثّ اتصال آلي مولَّد بالذكاء الاصطناعي يُحاكي صوت الرئيس Biden ناخبي New Hampshire على عدم التصويت في الانتخابات التمهيدية. بعد ذلك، قضت لجنة الاتصالات الفيدرالية (FCC) بأن الأصوات المولَّدة بالذكاء الاصطناعي في الاتصالات الآلية غير قانونية بموجب قانون حماية مستهلكي الاتصالات الهاتفية (TCPA) وفرضت غرامة قدرها 6 ملايين دولار على المستشار السياسي المسؤول.
التزييف العميق التجاري: الإعلانات والتوصيات وانتحال شخصيات المشاهير المولَّدة بالذكاء الاصطناعي تثير قضايا ملكية فكرية وحق الشخصية العامة. عدة دعاوى جارية ضد شركات ذكاء اصطناعي يمكن لنماذجها توليد صور وأصوات أشخاص محددين دون موافقتهم.
سلسلة المسؤولية في التزييف العميق معقدة بشكل خاص: مطوّر النموذج، ومشغّل المنصة، والفرد الذي أنشأ التزييف العميق، والموزّع الذي شاركه قد يتحملون جميعهم جزءاً من المسؤولية. تختلف الولايات القضائية في رسم هذه الحدود، ويتباين نهج قانون TAKE IT DOWN Act المركّز على المنصات مع الإطار التنظيمي الأوسع للاتحاد الأوروبي بموجب قانون الذكاء الاصطناعي.
التأمين والعقود ونقل المخاطر
في ظل عدم اليقين القانوني حول مسؤولية الذكاء الاصطناعي، تدير المؤسسات المخاطر من خلال آليات تعاقدية وتأمينية — والسوق يتطور بسرعة.
شروط التعويض في عقود الذكاء الاصطناعي: تتضمن عقود الذكاء الاصطناعي للشركات بشكل متزايد شروط تعويض يلتزم فيها مزوّد الذكاء الاصطناعي بالدفاع عن العميل وتعويضه ضد مطالبات الأطراف الثالثة الناشئة عن مخرجات نظام الذكاء الاصطناعي. يتفاوت نطاق هذه الشروط وحدودها بشكل كبير وتخضع لمفاوضات مكثفة.
منتجات تأمينية خاصة بالذكاء الاصطناعي: يطوّر سوق التأمين تغطيات مستهدفة للذكاء الاصطناعي بوتيرة متسارعة. أطلقت Armilla Insurance Services منتج تأمين مسؤولية الذكاء الاصطناعي المكتتب من Lloyd’s of London يغطي الهلوسة (Hallucinations) وتدهور أداء النماذج والإخفاقات الخوارزمية. أصدرت AXA ملحقاً لبوليصات التأمين السيبراني يغطي “الأفعال الخاطئة لتعلم الآلة”. وسّعت Coalition تعريفاتها لتشمل “حوادث أمن الذكاء الاصطناعي” والاحتيال المرتبط بالتزييف العميق، وبدأت في ديسمبر 2025 بتقديم تغطية للأضرار السمعة المرتبطة بالتزييف العميق. أطلقت Relm Insurance ثلاث بوليصات خاصة بالذكاء الاصطناعي في يناير 2025. إجمالاً، من المتوقع أن ترتفع أقساط التأمين السيبراني بنسبة 15% في 2026، مدفوعة جزئياً بالتهديدات المتعلقة بالذكاء الاصطناعي.
بطاقات النماذج والتوثيق: تشمل أفضل ممارسات حوكمة الذكاء الاصطناعي نشر بطاقات النماذج (Model Cards) — توثيق الاستخدام المقصود للنموذج وحدوده وخصائص أدائه وتحيزاته المعروفة — التي تخدم كدليل استخدام وكدليل على العناية المعقولة في حالات التقاضي المحتملة. توفّر أطر مثل NIST AI Risk Management Framework ومعيار ISO/IEC 42001 ومبادئ الذكاء الاصطناعي لمنظمة التعاون والتنمية الاقتصادية (OECD) مقاربات منظَّمة يمكن للمؤسسات اعتمادها لإثبات الامتثال وتخفيف التعرض للمسؤولية.
إعلان
رادار القرار (عدسة الجزائر)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — أطلقت الجزائر استراتيجيتها الوطنية للذكاء الاصطناعي في ديسمبر 2024 ويتسارع تبني الذكاء الاصطناعي في الخدمات الحكومية والمصرفية والطاقة. مع توسع النشر، ستظهر أسئلة المسؤولية محلياً. الشركات الجزائرية التي تصدّر إلى الأسواق الأوروبية يجب أن تمتثل لقانون الذكاء الاصطناعي الأوروبي بحلول أغسطس 2026. |
| البنية التحتية جاهزة؟ | جزئياً — أنشأت الجزائر مجلساً للذكاء الاصطناعي (يونيو 2023) وهيئة حماية البيانات الشخصية، لكن لا يوجد بعد إطار مسؤولية خاص بالذكاء الاصطناعي. البنية التحتية القانونية لمعالجة نزاعات الذكاء الاصطناعي غير متطورة. |
| المهارات متوفرة؟ | محدودة جداً — تفتقر الجزائر إلى محترفين قانونيين متخصصين في القانون الرقمي أو تنظيم الذكاء الاصطناعي. هناك حاجة ماسة للتكامل بين التخصصات القانونية والتقنية. لم تُدمج كليات الحقوق حوكمة الذكاء الاصطناعي في مناهجها على نطاق واسع بعد. |
| الجدول الزمني للعمل | 12-24 شهراً — يجب أن تبدأ الجزائر بتطوير أطر حوكمة ومسؤولية الذكاء الاصطناعي الآن، مستفيدة من قانون الذكاء الاصطناعي الأوروبي وتوجيه مسؤولية المنتجات المعدَّل كنماذج مرجعية، خاصة أن سوق الذكاء الاصطناعي في الجزائر مُتوقع نموه من 499 مليون دولار (2025) إلى 1.69 مليار دولار بحلول 2030. |
| أصحاب المصلحة الرئيسيون | وزارة العدل، وزارة الاقتصاد الرقمي، هيئة حماية البيانات الشخصية، نقابة المحامين الجزائريين، كليات الحقوق، مجلس الذكاء الاصطناعي، شركات التكنولوجيا التي تنشر الذكاء الاصطناعي في القطاع المصرفي والصحي والخدمات الحكومية |
| نوع القرار | تشريعي-استراتيجي — يتطلب تطوير سياسات على المستوى الوطني، مستنيرة بالمعايير الدولية والإطار الأوروبي |
خلاصة سريعة: تملك الجزائر فرصة للاستفادة من النهج الأوروبي — لا سيما معاملة توجيه مسؤولية المنتجات المعدَّل للذكاء الاصطناعي كمنتج — وتطوير أطر المسؤولية بشكل استباقي لا تفاعلي. بالنسبة للشركات الجزائرية التي تنشر أنظمة ذكاء اصطناعي (خاصة في القطاع المصرفي والصحي والخدمات الحكومية)، الأولوية الفورية هي التوثيق: الاحتفاظ بسجلات لأنظمة الذكاء الاصطناعي المستخدمة، والقرارات التي تدعمها، والبيانات التي دُرّبت عليها، والإشراف البشري القائم. بالنسبة للشركات المصدّرة للبرمجيات أو الخدمات إلى الاتحاد الأوروبي، فإن الامتثال لقانون الذكاء الاصطناعي مطلوب بحلول أغسطس 2026. يجب على المجتمع القانوني الجزائري الاستثمار في الخبرة بالقانون الرقمي كأولوية استراتيجية للمستقبل الرقمي للبلاد.
المصادر
- EU AI Act — النص الرسمي والجدول الزمني للتطبيق
- DLA Piper — آخر موجة من التزامات قانون الذكاء الاصطناعي الأوروبي (أغسطس 2025)
- IAPP — المفوضية الأوروبية تسحب توجيه مسؤولية الذكاء الاصطناعي
- Goodwin — توجيه مسؤولية المنتجات المعدَّل والذكاء الاصطناعي
- Latham & Watkins — توجيه مسؤولية المنتجات الجديد في الاتحاد الأوروبي
- Colorado General Assembly — SB 24-205
- Akin — تأجيل تطبيق قانون الذكاء الاصطناعي في Colorado
- البيت الأبيض — الأمر التنفيذي بشأن إطار السياسة الوطنية للذكاء الاصطناعي (ديسمبر 2025)
- Latham & Watkins — الرئيس Trump يوقّع قانون TAKE IT DOWN Act
- FCC — قرار حظر الأصوات المولَّدة بالذكاء الاصطناعي في الاتصالات الآلية
- Fortune — ادعاءات التحيز في التوظيف بالذكاء الاصطناعي لدى Workday وAmazon
- Fortune — المادة 230 قد لا تحمي شركات التقنية الكبرى في عصر الذكاء الاصطناعي
- IAPP — مخاطر مسؤولية الذكاء الاصطناعي والتأمين
- Stanford HAI — تقرير مؤشر الذكاء الاصطناعي
- FTC — إجراءات إنفاذ الذكاء الاصطناعي
إعلان