الأرقام: 25 قانوناً، سبع ولايات، أسبوعان
لم يكن تسارع التشريع الأمريكي الولائي للذكاء الاصطناعي في الربع الأول من 2026 اتجاهاً تدريجياً — بل كان حدثاً مفاجئاً. في الأسبوعين الأخيرين من مارس 2026، وقّع حكام سبع ولايات — من بينها Utah وWashington وNew York — على 19 قانوناً جديداً للذكاء الاصطناعي في 14 يوماً، وفقاً لتحليل Swept AI. بإضافة تشريعات مطلع الربع، أُغلق الربع بـ 25 قانون ولائي للذكاء الاصطناعي موقّعاً، أكثر من مجمل تشريعات العام السابق بأكمله.
وحده حاكم Utah، Spencer Cox، وقّع تسعة مشاريع قوانين في تلك الفترة الزمنية — تشمل متطلبات الإفصاح عن الذكاء الاصطناعي، وقواعد حماية المستهلك للمحتوى المُولَّد بالذكاء الاصطناعي، وقيوداً قطاعية في الرعاية الصحية والتأمين. وقّع حاكم Washington، Bob Ferguson، على HB 1170 وHB 2225؛ إذ يُدخل HB 1170 متطلبات “الإفصاح الخفي” الإلزامية للمحتوى المُولَّد أو المُعدَّل بالذكاء الاصطناعي والموزَّع من قِبَل مزودين يخدمون أكثر من مليون مستخدم شهرياً. أما حاكمة New York، Hochul، فقد وقّعت تعديلات على قانون RAISE Act (الذي صدر أصلاً في ديسمبر 2025)، تُلزم النسخة المُعدَّلة المنصات بالإبلاغ للسلطات الولائية عن الحوادث الحرجة المتعلقة بسلامة الذكاء الاصطناعي خلال 72 ساعة من تحديد الحادثة.
موجة التشريع هذه نتاج ديناميكية سياسية محددة: أمر إدارة Trump التنفيذي في ديسمبر 2025 وجّه الحكومة الفيدرالية لإلغاء لوائح الولايات المتعلقة بالذكاء الاصطناعي التي “تُثقل بصورة غير مبررة” التطوير المشروع للذكاء الاصطناعي، وأوصى الإطار الوطني لسياسة الذكاء الاصطناعي الصادر عن البيت الأبيض في مارس 2026 رسمياً بأن يُشرِّع الكونغرس لإلغاء قوانين الولايات المتعارضة. غير أن إشارات الإلغاء الفيدرالي، عوضاً عن ردع الفعل الولائي، يبدو أنها عجّلت به — إذ تسارع المجالس التشريعية الولائية لتأسيس أطر قانونية قبل أن يُمكن تمرير أي قانون فيدرالي للإلغاء.
ما تشترطه القوانين فعلياً
لا تتوحد القوانين الـ 25 الولائية المُعتمدة في الربع الأول 2026. فهي تمتد على ست فئات امتثال متمايزة على الأقل، والالتزامات في كل فئة تتباين تبايناً ملحوظاً من ولاية إلى أخرى. فهم المشهد الجوهري يستلزم تجاوز الأرقام الإجمالية.
التزامات الشفافية والإفصاح هي الفئة الأوسع انتشاراً. يُلزم HB 1170 في Washington مزودي المحتوى المُولَّد أو المُعدَّل بالذكاء الاصطناعي ممن يخدمون أكثر من مليون مستخدم شهرياً بدمج “إفصاحات خفية” — بيانات وصفية قابلة للقراءة آلياً تُعرّف مصدر الذكاء الاصطناعي — في المحتوى الموزَّع. تشترط تدابير الشفافية في Californiaالإفصاح حين تُستخدم أنظمة الذكاء الاصطناعي في تفاعلات مؤثرة مع المستهلكين. تُلزم متطلبات الإفصاح عن برامج الدردشة الآلية في New York المشغلين بإخبار المستخدم بأنه يتعامل مع نظام ذكاء اصطناعي.
قيود صنع القرار الآلي تمثل أثقل أعباء الامتثال. يُلزم قانون الذكاء الاصطناعي في Colorado (SB 24-205، نافذ اعتباراً من 30 يونيو 2026) مطوري ومُشغّلي “أنظمة الذكاء الاصطناعي عالية المخاطر” — المُعرَّفة بأنها أنظمة تُستخدم في قرارات مؤثرة في التوظيف والتعليم والسكن والائتمان والرعاية الصحية والإجراءات القانونية — بتطبيق برامج إدارة مخاطر مُتسقة مع إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن NIST، وإجراء تقييمات أثر سنوية، والاحتفاظ بالسجلات لمدة ثلاث سنوات. اقترح مسودة مجموعة عمل مارس 2026 تضييق التعريف ليشمل “تكنولوجيا صنع القرار الآلي المشمولة”، مما قد يُضيّق نطاق التطبيق، لكن النص القانوني الحالي لا يزال سارياً.
القيود القطاعية في الرعاية الصحية والتأمين تتزايد بوتيرة متسارعة. تُدخل القيود الصحية للذكاء الاصطناعي في Texas وقانون AB 853 في California جداول امتثال تدريجية لأنظمة الذكاء الاصطناعي المستخدمة في دعم القرارات السريرية والاكتتاب التأميني. يُنشئ اشتراط التبليغ خلال 72 ساعة الوارد في RAISE Act في New York التزاماً رقابياً تشغيلياً لا نظير له على المستوى الفيدرالي.
المسؤولية الجنائية عن المحتوى الضار المُولَّد بالذكاء الاصطناعي رُسّخت في ولايات متعددة، وتشمل الصور الحميمة المُولَّدة بالذكاء الاصطناعي بدون موافقة (deepfakes)، والتدخل الانتخابي عبر المحتوى السياسي المُولَّد بالذكاء الاصطناعي، والاحتيال المُيسَّر بالذكاء الاصطناعي. هذه الأحكام تقع خارج نطاق برامج الامتثال للذكاء الاصطناعي المؤسسي إلى حد بعيد، لكنها تؤثر على أي منصة تستضيف محتوى مُولَّداً من مستخدمين أو من ذكاء اصطناعي.
إعلان
مسألة الإلغاء الفيدرالي
موقف إدارة Trump من الإلغاء الفيدرالي مُدوَّن رسمياً في الإطار الوطني لسياسة الذكاء الاصطناعي الصادر في مارس 2026: على الكونغرس إلغاء قوانين الولايات المتعلقة بتطوير الذكاء الاصطناعي التي “تُثقل بصورة غير مبررة” النشاط المشروع. كما أشارت الإدارة إلى استعدادها لاتخاذ “مسارات تنفيذية وإدارية” — بما قد يشمل طعوناً محتملة من وزارة العدل في قوانين الولايات — في غياب الإجراء التشريعي من الكونغرس.
التحدي أمام استراتيجية الإلغاء هو أنها تستلزم إجراءً تشريعياً، والمسار التشريعي ضيق. كما أشارت Morgan Lewis في تحليلها في أبريل 2026، لم يُعتمد أي قانون فيدرالي شامل للذكاء الاصطناعي حتى الآن، والتركيبة ثنائية الحزب لمؤيدي قوانين الذكاء الاصطناعي الولائية تُعقّد أي مشروع قانون للإلغاء الفيدرالي. وقد اعتمدت ولايات ذات قيادة جمهورية — من بينها Utah وTexas وGeorgia — تنظيماتها الخاصة للذكاء الاصطناعي؛ وسيصوت سناتورها وممثلوها ضد تشريع إلغاء يُبطل ما اتخذه حكام ولاياتهم أنفسهم.
النتيجة مأزق هيكلي: الحكومة الفيدرالية لا تريد أن تُنظم الولايات الذكاء الاصطناعي لكنها عاجزة عن تمرير تشريع يحول دون ذلك. تعتقد الولايات أن التنظيم الفيدرالي سيكون مُتساهلاً للغاية وتُشرِّع بصورة استباقية. لا تستطيع المؤسسات قانونياً تجاهل قوانين الولايات ريثما يتضح مصير الإلغاء الذي قد يستغرق سنوات — أو قد لا يتحقق أبداً.
تُشير تحليل Morgan Lewis إلى أن التطبيق الفيدرالي عبر الصلاحيات القائمة — المادة 5 من قانون FTC للممارسات الذكاء الاصطناعي غير العادلة أو المُضلِّلة، وقواعد الإفصاح في SEC للمخاطر المادية المرتبطة بالذكاء الاصطناعي، والمسؤولية بموجب قانون False Claims Act لمقاولي الحكومة، وتطبيق قانون مكافحة الاحتكار لتركّز سوق الذكاء الاصطناعي — يسير بصرف النظر عن النقاش حول الإلغاء. ما يعني أن المؤسسات تواجه في آنٍ واحد عبئاً ولائياً مُتكاثراً للامتثال وبيئة تطبيق فيدرالية نشطة، لا خياراً بينهما.
ما ينبغي لفرق الامتثال المؤسسي فعله
تحدي الامتثال الذي تُفرزه 25+ قانون ولائي بمتطلبات متباينة ليس إشكالية فهم كل قانون على حدة. إنه إشكالية بناء بنية حوكمة للذكاء الاصطناعي قادرة على استيعاب التباين بين الولايات القضائية دون الحاجة إلى برنامج امتثال مُخصص لكل ولاية.
1. بناء سجل مخاطر الذكاء الاصطناعي المحايد للولاية القضائية
الخطوة التأسيسية هي سجل داخلي لكل نظام ذكاء اصطناعي تنشره المؤسسة، مُصنَّف حسب: حالة الاستخدام المقصودة، وفئات القرارات التي يؤثر فيها (التوظيف، والائتمان، والرعاية الصحية، والسكن، وما إلى ذلك)، والولايات الأمريكية التي يتواجد فيها المستخدمون أو الأشخاص المتأثرون، والتصنيف القانوني المحدد في كل ولاية قضائية مُطبَّقة.
يستخدم كل من تعريف الخطورة المرتفعة في Colorado وأنظمة RAISE Act في New York ومتطلبات الشفافية في California معايير تصنيف مختلفة. سجل يلتقط حالة الاستخدام وفئة القرار المتأثر والجغرافيا يُتيح إجراء عملية رسم خرائط واحدة لتحديد القوانين المنطبقة على أي نظام، بدلاً من إعادة تحليل المحفظة الكاملة للأنظمة لكل قانون ولائي جديد.
2. اعتماد Colorado-plus كخط أساس للامتثال
قانون الذكاء الاصطناعي في Colorado هو حالياً أكثر قوانين الذكاء الاصطناعي الولائية جوهرية في البلاد — يشترط الانسجام مع إطار NIST AI RMF، وتقييمات الأثر السنوية، والاحتفاظ بالسجلات لثلاث سنوات. تصميم برنامج امتثال يستوفي متطلبات Colorado ثم إضافة المتطلبات الخاصة بكل ولاية (تبليغ الحوادث خلال 72 ساعة في New York، والإفصاح الخفي في Washington) يُنشئ خطاً أساسياً قابلاً للدفاع يغطي معظم السيناريوهات.
نهج “Colorado-plus” يحاكي استراتيجية GDPR-كأساس التي اعتمدتها المؤسسات للامتثال لقوانين الخصوصية الولائية الأمريكية بعد عام 2018: استيفاء الإطار الأكثر مطالبةً ثم إضافة التنويعات الولائية المحددة كوحدات إضافية. إنه البنية الأكثر فاعلية من حيث التكلفة لمؤسسة تواجه 25+ إطاراً متبايناً.
3. ربط رصد الحوادث بعملية إبلاغ في 72 ساعة
يُلزم تعديل RAISE Act في New York بالإبلاغ عن الحوادث الحرجة لسلامة الذكاء الاصطناعي خلال 72 ساعة من تحديد المؤسسة وقوع حادثة. هذا أشد صرامةً من أغلب قوانين إشعار خروقات البيانات (التي تمنح عادةً 30 إلى 72 ساعة من الاكتشاف، لا التحديد) ويستلزم عملية مُعدّة مسبقاً — لا إجراء ارتجالياً يُخترع بعد وقوع الحادثة.
ينبغي لفرق الامتثال تحديد: ما الذي يُعدّ “حادثة حرجة لسلامة الذكاء الاصطناعي” بموجب التعريفات المنطبقة، ومن في المؤسسة يملك صلاحية التحديد، وكيف يبدو إجراء الإخطار لسلطة ولاية New York، وهل الحادثة ذاتها ستُفضي إلى التزامات إخطار في ولايات قضائية أخرى (الاتحاد الأوروبي، California). الساعة العدّاءة للـ 72 ساعة تُكافئ المؤسسات ذات خطط العمل المُعدّة مسبقاً وتُعاقب تلك التي تفتقر إليها.
سيناريو التصحيح
السؤال البديهي لفرق الامتثال المؤسسي هو ما إذا كانت ستبني برنامج Colorado-plus الآن، مع العلم بأن الإلغاء الفيدرالي قد يُبسّط المشهد بأثر رجعي خلال 1 إلى 3 سنوات. سيناريو التصحيح — بتمرير الكونغرس لتشريع إلغاء وإلغاء 20+ قانون ولائي — مُحتمل لكن لا يمكن التخطيط له.
تكلفة بناء برنامج امتثال يتضح أنه مُفرط في هندسته (لأن الإلغاء مرّ) قابلة للإدارة: حوكمة الذكاء الاصطناعي الموثقة وسجلات المخاطر وعمليات تقييم الأثر مفيدة تشغيلياً حتى في غياب الالتزامات القانونية. تكلفة عدم بناء برنامج امتثال وفشل الإلغاء غير متماثلة: إجراءات التطبيق والتحقيقات التي يُجريها المدعون العامون للولايات والمخاطر السمعية الناجمة عن التعرف العلني على المؤسسة بوصفها غير ممتثلة لقوانين حماية القاصرين أو الذكاء الاصطناعي في التوظيف.
الرقم 25 قانوناً في الربع الأول 2026 ليس السقف. عبر 45 ولاية، قدّم المشرعون 1,561 مشروع قانون مرتبطاً بالذكاء الاصطناعي مطلع عام 2026. خط أنابيب التشريع سيواصل توليد التزامات جديدة بوتيرة تفوق أي جهد للإلغاء في الكونغرس. الافتراض العملي لامتثال المؤسسات يجب أن يكون: التشرذم دائم، وينبغي بناء بنية الحوكمة لإدارته.
الأسئلة الشائعة
ما الفرق بين Colorado AI Act وRAISE Act في New York؟
قانون الذكاء الاصطناعي في Colorado (SB 24-205، نافذ في 30 يونيو 2026) إطار شامل يغطي جميع أنظمة الذكاء الاصطناعي عالية المخاطر المُستخدمة في القرارات المؤثرة — التوظيف والتعليم والائتمان والسكن والرعاية الصحية — ويشترط إدارة مخاطر منسجمة مع إطار NIST AI RMF وتقييمات أثر سنوية واحتفاظاً بالسجلات ثلاث سنوات. أما RAISE Act في New York (موقعة ديسمبر 2025، مُعدَّلة مارس 2026) فتتمحور حول حوادث سلامة الذكاء الاصطناعي وتُلزم المؤسسات بالإبلاغ عن الحوادث الحرجة للسلطات الولائية خلال 72 ساعة من تحديد الحادثة. القانونان لهما مُحفِّزات ومعايير تصنيف والتزامات امتثال مختلفة — المؤسسات في كلتا الولايتين تحتاج إلى تحليلات منفصلة.
هل يمكن للمؤسسات قانونياً انتظار الإلغاء الفيدرالي قبل بناء برامج الامتثال الولائية؟
لا. قوانين الذكاء الاصطناعي الولائية سارية وقابلة للتطبيق من تواريخ دخولها حيز النفاذ. تشريع الإلغاء الفيدرالي يحتاج إلى تمريره في الكونغرس وتوقيعه من الرئيس ونجاته من الطعون الدستورية المحتملة قبل أن يتمكن من تجاوز القوانين الولائية — وهو مسار قد يستغرق سنوات أو لا يُكتمل أبداً. يمكن للمدعين العامين والجهات التنظيمية الولائية تطبيق قوانينهم الولائية اليوم. الإطار السياسي للبيت الأبيض الصادر في مارس 2026 والموصي بالإلغاء ليس قانوناً؛ إنه توصية تشريعية. المؤسسات التي تعتمد الإلغاء استراتيجيةً للامتثال تواجه تعرضاً للتطبيق خلال أي فجوة زمنية.
كيف يرتبط إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن NIST بمتطلبات الامتثال في الولايات الأمريكية؟
إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن NIST (AI RMF)، المنشور في يناير 2023، وثيقة توجيهية طوعية تُقدم نهجاً منظماً لتحديد مخاطر الذكاء الاصطناعي وتقييمها وإدارتها. قانون الذكاء الاصطناعي في Colorado هو أول قانون ولائي أمريكي يُوائم صراحةً متطلبات الامتثال مع إطار NIST AI RMF، مُلزماً مطوري أنظمة الذكاء الاصطناعي عالية المخاطر بتطبيق ممارسات إدارة مخاطر “مُنسجمة مع معايير الصناعة المقبولة عموماً”، مع الاستشهاد بإطار NIST AI RMF بوصفه المعيار المرجعي. المؤسسات التي تطبق إطار NIST AI RMF كخط أساس داخلي لحوكمة الذكاء الاصطناعي مُهيأة جيداً للوفاء بمتطلبات Colorado ولديها حجة امتثال قابلة للدفاع في ولايات قضائية أخرى تُقيّم ممارسات حوكمة الذكاء الاصطناعي.
المصادر والقراءات الإضافية
- AI Enforcement Accelerates as Federal Policy Stalls and States Step In — Morgan Lewis
- State AI Laws: Where Are They Now — Cooley
- 19 State AI Laws in Two Weeks: What Every Enterprise Should Build — Swept AI
- US Tech Legislative & Regulatory Update: Q1 2026 — Global Policy Watch
- National Policy Framework for Artificial Intelligence — White House
- Orrick US AI Law Tracker — Orrick
















