واشنطن ترسم خطًا فاصلًا حول تنظيم الولايات للذكاء الاصطناعي
في 20 مارس 2026، أصدر البيت الأبيض إطار سياسته الوطنية للذكاء الاصطناعي — أكثر المخططات تفصيلًا حتى الآن لكيفية نية الحكومة الفيدرالية ترتيب المشهد التنظيمي الأمريكي المتزايد التجزئة في مجال الذكاء الاصطناعي. الوثيقة ليست قانونًا ملزمًا. إنها مجموعة من التوصيات التشريعية للكونغرس. لكن رسالتها المركزية لا لبس فيها: عصر 50 مجموعة مختلفة من القواعد على مستوى الولايات يقترب من نهايته بشكل أو بآخر.
يبني الإطار على الأمر التنفيذي 14365، الموقع في ديسمبر 2025، الذي وجّه وزير التجارة لتحديد قوانين الولايات «المرهقة» للذكاء الاصطناعي خلال 90 يومًا وأنشأ فريق عمل للتقاضي بشأن الذكاء الاصطناعي تحت إشراف النائب العام للطعن في إجراءات الولايات التي تُعتبر غير دستورية أو تتعدى على السلطة الفيدرالية. انتهى هذا الموعد النهائي البالغ 90 يومًا في 11 مارس 2026 دون تقرير عام من وزارة التجارة — لكن إطار البيت الأبيض يملأ الآن الفراغ السياسي بتوصيات شاملة.
مشكلة التشرذم
الإلحاح وراء الإطار قابل للقياس الكمي. حتى مارس 2026، قدّم المشرعون عبر 45 ولاية 1,561 مشروع قانون متعلق بالذكاء الاصطناعي — متجاوزين بالفعل الإجمالي لعام 2024 بأكمله، مع بقاء معظم الدورات التشريعية جارية. في عام 2025 وحده، تم سن 145 مشروع قانون للذكاء الاصطناعي عبر جميع الولايات الخمسين.
النتيجة متاهة امتثال. قانون الذكاء الاصطناعي في كولورادو — الموقع في 2024 والمؤجل عدة مرات والذي يُعاد صياغته جوهريًا بعد توصل مجموعة عمل إلى توافق في مارس 2026 — يفرض متطلبات مساءلة خوارزمية على المطورين والناشرين. سنّت يوتا قوانين متعددة للذكاء الاصطناعي تحكم روبوتات المحادثة للصحة النفسية والإفصاحات عن الذكاء الاصطناعي التوليدي وحماية المستهلك. أقرّت جورجيا قانونها الخاص بروبوتات المحادثة. تؤسس ألاباما لجنة دراسة للذكاء الاصطناعي وسلامة الأطفال على الإنترنت. كاليفورنيا وتكساس وإلينوي وعشرات الولايات الأخرى لديها أطرها الخاصة المتداخلة والمتناقضة أحيانًا.
بالنسبة للشركات التي تبني أنظمة ذكاء اصطناعي، يعني هذا التشرذم التنقل عبر نظام تنظيمي مختلف في كل ولاية تقريبًا تعمل فيها — عبء يعتبره البيت الأبيض غير قابل للاستدامة للحفاظ على التنافسية الأمريكية.
ما الذي يقترحه الإطار فعليًا
تستند بنية الأولوية في الإطار إلى تمييز واضح: ستفقد الولايات سلطتها على تطوير نماذج الذكاء الاصطناعي لكنها تحتفظ بالسلطة على الأضرار المحددة.
ما لا يمكن للولايات فعله بموجب الإطار المقترح:
- تنظيم تطوير نماذج الذكاء الاصطناعي أو تدريبها أو التكنولوجيا الأساسية ذاتها
- فرض مسؤولية على مطوري الذكاء الاصطناعي عن السلوك غير القانوني لأطراف ثالثة تستخدم نماذجهم
- تقييد استخدام المواطنين للذكاء الاصطناعي في أنشطة تكون مشروعة إذا أُديت بدون ذكاء اصطناعي
- إنشاء متطلبات تتعارض مع المعيار الفيدرالي المقترح «الأدنى عبئًا»
ما يمكن للولايات الاستمرار في فعله:
- تطبيق القوانين ذات التطبيق العام (حماية المستهلك، منع الاحتيال)
- حماية الأطفال من خلال متطلبات التحقق من العمر وحدود جمع البيانات
- ممارسة سلطة التخطيط العمراني على البنية التحتية للذكاء الاصطناعي مثل مراكز البيانات
- إدارة مشترياتها الخاصة واستخدام الذكاء الاصطناعي في الخدمات العامة
هذا التمييز بين المطور والناشر مقصود. يخلق الإطار فعليًا درعًا للمسؤولية لصالح صانعي نماذج الذكاء الاصطناعي — شركات مثل OpenAI وAnthropic وGoogle وMeta — مع ترك الباب مفتوحًا أمام الولايات لتنظيم كيفية تطبيق هذه النماذج في الممارسة.
إعلان
سبعة ركائز سياسية
إلى جانب الأولوية، يحدد الإطار توصيات تشريعية عبر سبعة مجالات:
سلامة الأطفال تحتل المرتبة الأولى. يحث الإطار الكونغرس على فرض أدوات التحقق من العمر والرقابة الأبوية لإعدادات الخصوصية والتفاعل وقيود صارمة على جمع بيانات القاصرين والإعلانات السلوكية الموجهة إليهم عبر الإنترنت.
حماية المستهلك تركز على الشفافية — ضمان معرفة المستهلكين متى يتفاعلون مع ذكاء اصطناعي وإمكانية الحصول على تعويض عن الأضرار التي يسببها الذكاء الاصطناعي.
سياسة الطاقة تتناول طفرة مراكز البيانات مباشرة، داعية إلى تبسيط التصاريح الفيدرالية للبنية التحتية للذكاء الاصطناعي ومتطلب قانوني بألا يتحمل العملاء السكنيون تكاليف الكهرباء المتزايدة من بناء مراكز بيانات ذكاء اصطناعي جديدة.
أحكام الأمن القومي تدفع نحو بناء قدرات التقييم التقني داخل أجهزة الأمن لتقييم أنظمة الذكاء الاصطناعي المتقدمة.
الملكية الفكرية هي المجال الذي يتخذ فيه الإطار موقفه الأكثر إثارة للجدل: تصرح الإدارة بأن «تدريب نماذج الذكاء الاصطناعي على مواد محمية بحقوق النشر لا ينتهك قوانين حقوق النشر»، مع الاعتراف بأن المحاكم ستقرر في نهاية المطاف.
حماية حرية التعبير تهدف إلى منع الحكومة من «إكراه مقدمي التكنولوجيا، بما في ذلك مقدمو الذكاء الاصطناعي، على حظر أو فرض أو تعديل المحتوى على أساس أجندات حزبية أو أيديولوجية».
أحكام القوى العاملة تتناول إزاحة وتحويل الوظائف بسبب الذكاء الاصطناعي، رغم أن الآليات التشريعية المحددة تظل غامضة مقارنة بالركائز الأخرى.
آلية التطبيق
الإطار ليس مجرد توصيات على الورق. أنشأ الأمر التنفيذي 14365 فريق عمل التقاضي بشأن الذكاء الاصطناعي، المُعلن في 9 يناير 2026، بتفويض للطعن في قوانين الولايات للذكاء الاصطناعي على أسس دستورية — بما في ذلك ادعاءات بأنها تنظم التجارة بين الولايات بشكل غير دستوري أو أن التنظيم الفيدرالي يسبقها.
إضافة إلى ذلك، يوجّه الأمر التنفيذي الوكالات الفيدرالية لتقييم الأطر التنظيمية للولايات في مجال الذكاء الاصطناعي عند تحديد الأهلية للتمويل الفيدرالي — رافعة مالية قوية يمكن أن تضغط على الولايات للامتثال حتى قبل تصرف الكونغرس.
لا منظم جديد — لكن توترات جديدة
يوصي الإطار صراحة بألا ينشئ الكونغرس أي هيئة تنظيمية فيدرالية جديدة للذكاء الاصطناعي. بدلًا من ذلك، يدعو إلى تنظيم قطاعي من خلال الوكالات القائمة ذات الخبرة في المواضيع المعنية، مُكمَّلة بمعايير يقودها القطاع الخاص. يتوافق هذا النهج مع الموقف العام لإلغاء القيود التنظيمية للإدارة لكنه يثير تساؤلات حول التنسيق وقدرات التطبيق.
أثار الإطار بالفعل احتكاكات في الكونغرس. في يوليو 2025، صوّت مجلس الشيوخ 99 مقابل 1 لإزالة وقف اختياري مقترح لمدة عشر سنوات على تنظيم الولايات للذكاء الاصطناعي من مشروع قانون تسوية الميزانية — إشارة قوية على أن الأولوية الواسعة تواجه شكوكًا من الحزبين. نشرت السيناتور Marsha Blackburn مسودة نقاش خاصة بها، قانون «TRUMP AMERICA AI Act»، الذي يتضمن تدابير لحماية الأطفال ومكافحة التزييف العميق لكنه يختلف بشكل ملحوظ عن البيت الأبيض بشأن حقوق النشر، مؤكدًا أن تدريب الذكاء الاصطناعي على أعمال محمية لا يشكل استخدامًا عادلًا.
أعرب ديمقراطيون من بينهم النائبان Yvette Clarke وDon Beyer والسيناتور Brian Schatz عن مخاوفهم بشأن ثغرات المساءلة في نهج الأولوية.
ماذا يعني هذا عالميًا
يضع الإطار الولايات المتحدة بحزم في معسكر «الابتكار أولًا» في حوكمة الذكاء الاصطناعي، في تباين حاد مع قانون الذكاء الاصطناعي للاتحاد الأوروبي القائم على المخاطر واللوائح القطاعية للذكاء الاصطناعي في الصين. بالنسبة للدول التي تطور استراتيجيات حوكمة الذكاء الاصطناعي الخاصة بها، يقدم النهج الأمريكي إشارة واضحة: واشنطن تُعطي الأولوية للسرعة وريادة السوق على التنظيم الاحترازي.
بالنسبة للدول التي لا تزال تبني أطرها التنظيمية للذكاء الاصطناعي، يوضح النقاش الأمريكي توترًا أساسيًا ستواجهه كل ولاية قضائية — كيفية الموازنة بين الرغبة في الاتساق الوطني والحاجة المشروعة للحماية المحلية. قد يكون نموذج الأولوية الفيدرالية أمريكيًا بامتياز في إطاره الدستوري، لكن السؤال الجوهري عالمي: من يحق له كتابة قواعد الذكاء الاصطناعي، وعلى أي مستوى حكومي؟
الإجابة في الوقت الراهن بيد كونغرس أظهر قدرته على الاتفاق على حماية الأطفال من مخاطر الذكاء الاصطناعي لكنه يبقى منقسمًا بشدة حول كل شيء آخر تقريبًا.
الأسئلة الشائعة
هل يتمتع إطار السياسة الأمريكية للذكاء الاصطناعي بقوة القانون؟
لا. الإطار الصادر في 20 مارس 2026 هو مجموعة من التوصيات التشريعية للكونغرس وليس تشريعًا ملزمًا. يبني على الأمر التنفيذي 14365 الذي يمتلك آليات تطبيق تشمل فريق عمل التقاضي بشأن الذكاء الاصطناعي، لكن أحكام الأولوية تتطلب إجراءً من الكونغرس لتصبح قانونًا.
ما هو التمييز بين المطور والناشر في الإطار؟
يقترح الإطار أن الولايات لا تستطيع تنظيم كيفية بناء نماذج الذكاء الاصطناعي أو تدريبها أو تطويرها. ومع ذلك، تحتفظ الولايات بسلطة تنظيم كيفية نشر الذكاء الاصطناعي في الممارسة، بما في ذلك حماية المستهلك وسلامة الأطفال ومنع الاحتيال. هذا يحمي فعليًا صانعي نماذج الذكاء الاصطناعي مع السماح بتنظيم التطبيقات الضارة.
كيف يُقارن هذا الإطار بقانون الذكاء الاصطناعي للاتحاد الأوروبي؟
يتبنى الإطار الأمريكي نهج «الابتكار أولًا» صراحة، متجنبًا نظام التصنيف القائم على مستوى المخاطر والتنظيم الاحترازي لدى الاتحاد الأوروبي. بينما يصنف الاتحاد الأوروبي أنظمة الذكاء الاصطناعي حسب مستوى المخاطر ويفرض متطلبات وفقًا لذلك، يفضل النهج الأمريكي تنظيمًا أدنى للتطوير مع إشراف قطاعي من خلال الوكالات القائمة بدلًا من منظم جديد للذكاء الاصطناعي.
المصادر والقراءات الإضافية
- Insilico Medicine Announces Nature Medicine Publication of Phase IIa Results of Rentosertib — Insilico Medicine
- MSU Study Demonstrates Faster Discovery of Therapeutic Drugs Through AI — Michigan State University
- Using Generative AI, Researchers Design Compounds That Can Kill Drug-Resistant Bacteria — MIT News
- AI Speeds Up Drug Design for Parkinson's by Ten-Fold — University of Cambridge
- Here's How AI Is Reshaping Drug Discovery — World Economic Forum
- AI-Discovered Drugs Reach Phase III — Humai Blog
- AI Drug Discovery 2026: 173 Programs, FDA Framework and Market — Axis Intelligence
- FDA and EMA Set Common Principles for AI in Medicine Development — European Medicines Agency
















