المشروع الذي يختبر صبر واشنطن مع الذكاء الاصطناعي
في 26 مارس 2026، قدّم ثلاثي حزبي ثنائي HR 8094 — AI Foundation Model Transparency Act of 2026. قدّم المؤلفون — Don Beyer وMike Lawler وSara Jacobs — المشروع كإطار شفافية حد أدنى قابل للتطبيق على الحفنة من مختبرات الذكاء الاصطناعي التي تُشكّل قراراتها الآن المنظومة المعلوماتية لمئات الملايين من الأمريكيين. الطرح، وفقاً لمكتب Beyer، يتعلق أقل بتقييد الذكاء الاصطناعي وأكثر باشتراط أن “تُظهر مختبرات الطليعة عملها”.
المشروع لا يُنشئ نظام ترخيص. لا يُحدد عتبات أمان. يُكلّف Federal Trade Commission — بالتشاور مع NIST وDepartment of Commerce وOSTP — بتحديد ما يجب على نماذج الأساس المشمولة إيداعه لدى FTC وما يجب الإفصاح عنه علناً. هذا الاختيار التصميمي مقصود: بدلاً من تشريع تفاصيل تقنية ستشيخ سريعاً، يُفوّض الكونغرس وكالات لديها عضلات كتابة معايير قائمة.
ما يتطلبه المشروع فعلياً
وفقاً لملخص Benton Institute، سيُغطّي نظام الإفصاح FTC ثلاث فئات:
بيانات التدريب. ملخص مفصّل بشكل كاف للبيانات المستخدمة لتدريب النموذج — كافٍ للمنظمين والمحاكم والصحفيين لتقييم المصدر والتعرض لحقوق الطبع والنشر وديناميات التحيز، دون إجبار المختبرات على نشر المجاميع الخام.
منهجية التدريب. كيف دُرّب النموذج — الخيارات المعمارية، مراحل الضبط الدقيق، RLHF وضبط الأمان. مرة أخرى، ملخص كافٍ للمراجعة الخارجية، لا وصفة كاملة.
جمع بيانات المستخدمين. هل تُجمع بيانات المستخدمين أثناء الاستخدام وكيف — جواب مباشر للسؤال المتنامي حول ما إذا كانت المحادثات مع chatbots تصبح بيانات تدريب للنموذج التالي.
يُشير مدونة خصوصية Alston & Bird إلى أن المشروع مُؤطّر بعناية لتفادي الآثار المُثبّطة التي أثارتها المسودات الأولى الأكثر صرامة: النماذج المفتوحة المصدر بالكامل مُعفاة، والإنفاذ يقع على FTC (وليس وكالة ذكاء اصطناعي جديدة)، ونهج الملخص-لا-الإفصاح-الكامل يترك مجالاً للحمايات الخاصة.
إعلان
من يُعتبر “كياناً مشمولاً”
ينطبق HR 8094 فقط على نماذج الأساس التي تتجاوز إحدى ثلاث عتبات، كما يُفصّل نص المشروع على Congress.gov:
- عتبة المخاطر — النموذج يطرح مخاطر كبيرة على الأمن أو الحقوق المدنية أو الصحة العامة.
- عتبة الحجم — أكثر من 10 ملايين مستخدم أو تنزيل شهرياً.
- عتبة الحوسبة — دُرّب باستخدام أكثر من 10²⁶ عملية حسابية (متسقة مع عتبة الأمر التنفيذي للذكاء الاصطناعي لعام 2023 للرئيس Biden ومُشار إليها على نطاق واسع في وثائق سياسة الذكاء الاصطناعي الأمريكية اللاحقة).
النماذج المفتوحة المصدر بالكامل مُعفاة. هذا الاستثناء مهم سياسياً — إنه ما يكسب دعم مجتمع المصادر المفتوحة ويمنع المشروع من أن يبدو كخندق لمختبرات النماذج المغلقة القائمة.
لماذا “الشفافية فقط” هي حجة بيعه
أمضت الولايات المتحدة ثلاث سنوات تتنقل بين مقترحات تنظيمية للذكاء الاصطناعي. تعثّرت مشاريع حول تقييمات الأمان والترخيص قبل النشر وتقارير الحوسبة. درس التصميم في HR 8094، وفقاً لتحليل BGov، هو أن التزامات الشفافية قد تكون الإطار الأقل طموحاً الذي يمكن أن يُمرّر — ضيق بما يكفي للجمهوريين الحذرين من التنظيم الأوروبي، وذو معنى بما يكفي للديمقراطيين الذين يريدون المساءلة.
قائمة تأييد المشروع، وفقاً لمكتب Beyer، تمتد بين الصناعة والعمل والمجتمع المدني — تحالف غير عادي في سياسة الذكاء الاصطناعي. هذا التحالف هو ما يجعل HR 8094 مركبة واقعية بدلاً من إيماءة رمزية.
الوضع الحالي وما يجب مراقبته
اعتباراً من أبريل 2026، أُحيل المشروع إلى House Committee on Energy and Commerce، التي تملك الاختصاص على صلاحيات FTC. GovTrack يُصنّفه مشروعاً حياً بمسار غير تافه نحو الـ markup. ثلاثة متغيرات ستُقرر مصيره:
- تقويم اللجنة. إذا عقدت Energy and Commerce Committee markup قبل عطلة أغسطس 2026، فللمشروع فرصة حقيقية للنظر فيه في القاعة.
- نظير في مجلس الشيوخ. يُقال إن نسخة حزبية ثنائية في مجلس الشيوخ قيد الصياغة؛ بدونها، يُخاطر المشروع بالموت في مجلس النواب.
- إشارة الإدارة. يمنح المشروع FTC صلاحية تنظيمية جديدة؛ راحة الإدارة الحالية مع هذه الصلاحية متغيرة سياسياً.
بالنسبة لمختبرات الذكاء الاصطناعي — OpenAI وAnthropic وGoogle DeepMind وMeta وMistral وxAI — الإجراء قصير المدى هو البدء في بناء خطوط توثيق داخلية تتطلبها المادة 50 في أوروبا بالفعل، لأنه إذا مُرّر HR 8094، فإن كون الإفصاح يتوسع من بطاقات النماذج الطوعية إلى إيداعات FTC ملزمة قانونياً. المختبرات التي بنت بالفعل بطاقات نماذج قوية لديها أقصر مسافة لقطعها.
الأسئلة الشائعة
كيف يختلف HR 8094 عن أحكام الشفافية في قانون الذكاء الاصطناعي الأوروبي؟
يفرض قانون الذكاء الاصطناعي الأوروبي واجبات شفافية أفقية قابلة للإنفاذ مباشرة (المادة 50 على وسم المحتوى المُنتَج بالذكاء الاصطناعي؛ المواد 52-55 على نماذج الأساس). HR 8094 أضيق: يُخوّل FTC لوضع معايير الإفصاح لفئة محددة من نماذج الأساس “عالية التأثير”. الالتزامات الأوروبية تضرب عند النشر؛ HR 8094 يُركّز على المعلومات الهيكلية حول كيفية بناء النماذج. عملياً، مختبر عالمي يمتثل للقواعد الأوروبية سيكون على بُعد 70-80% من طريق الامتثال لـ HR 8094.
لماذا النماذج المفتوحة المصدر بالكامل مُعفاة من HR 8094؟
نماذج الأساس المفتوحة المصدر تنشر بالفعل أوزانها ومعمارياتها وغالباً أوصاف بيانات التدريب. يجادل مؤلفو المشروع بأن إجبار ملفات FTC مكررة على مشاريع شفافة بالفعل سيكون عبئاً خالصاً. يردّ النقاد بأن “المصادر المفتوحة” طيف — بعض إصدارات “الأوزان المفتوحة” لا تتضمن بيانات التدريب ولا توثيق المنهجية — وستحتاج صياغة قواعد FTC إلى تعريف الإعفاء بدقة.
ماذا يحدث إذا تعثّر المشروع في الكونغرس؟
تستمر سياسة الذكاء الاصطناعي الأمريكية في العمل على رقعة: قوانين الولايات (جهود خلفاء SB 1047 الكاليفورني، Colorado AI Act، sandbox Utah)، ومعايير NIST الطوعية، والأحكام الخاصة بالوكالات (إجراءات إنفاذ FTC، توجيه SEC للذكاء الاصطناعي). لا تزال المختبرات العالمية تواجه التزامات قانون الذكاء الاصطناعي الأوروبي التي تخلق معايير إفصاح بحكم الأمر الواقع. توقف HR 8094 يؤخر مرساة فيدرالية، ولكن ضغط الشفافية يصل على أي حال عبر القواعد الدولية والتقاضي.
—
المصادر والقراءات الإضافية
- HR 8094 — AI Foundation Model Transparency Act of 2026 — Congress.gov
- Beyer, Lawler, Jacobs Introduce Bipartisan Legislation — Rep. Don Beyer
- Lawmakers Introduce Bipartisan Legislation to Promote AI Foundation Model Transparency — Benton Institute
- “Show Your Work, AI”: Congress Pushes for AI Model Transparency — Alston & Bird
- AI Transparency Requirements Emerge as Congress Crafts Framework — Bloomberg Government
- AI Foundation Model Transparency Act of 2026 — GovTrack
















