النماذج الأكثر قدرة هي الآن الأكثر غموضاً
قدم Foundation Model Transparency Index (FMTI) لعام 2025، الصادر عن Stanford Center for Research on Foundation Models و Stanford Institute for Human-Centered AI، أوضح إشارة لسنة واحدة حول غموض الذكاء الاصطناعي منذ بدأ المؤشر في 2023. عبر 100 مؤشر تغطي بيانات التدريب، والحوسبة، وبنية النموذج، والقدرات، والمخاطر، والاستخدام، والتأثير النهائي، انخفض متوسط درجة الشفافية إلى 40 نقطة من أصل 100، بعد أن كان 58 في العام السابق.
كانت الانخفاضات الفردية للشركات أكثر حدة. Meta، التي كانت من الأفضل أداءً في 2023، خفضت نقاطها تقريباً إلى النصف — من 60 إلى 31. Mistral، التي كانت تُرى ذات يوم كقائدة أوروبية في الشفافية، انهارت من 55 إلى 18. من الشركات الست التي تم تقييمها في جميع إصدارات المؤشر الثلاثة، انتقلت Meta و OpenAI من الأولى والثانية في 2023 إلى الأخيرة وما قبل الأخيرة في 2025. ظهرت IBM كاستثناء إيجابي واضح بنقاط 95؛ تجلس xAI و Midjourney في القاع بـ 14 لكل منهما.
النمط لا لبس فيه: مع ازدياد القيمة التجارية للنماذج الأساسية، أصبحت الشركات التي تبنيها أقل استعداداً باستمرار للكشف عن كيفية بنائها.
ما تخفيه مختبرات الذكاء الاصطناعي
يقيس FMTI الشفافية عبر ثلاثة مجالات رفيعة المستوى: المنبع (الموارد المستخدمة لبناء النموذج)، النموذج (خصائص النموذج نفسه)، والمصب (كيفية استخدام النموذج وتأثيره على المستخدمين). حدد تقرير 2025 أربع مناطق من “الغموض المنهجي” — مواضيع تحرز فيها الصناعة بأكملها الآن درجات ضعيفة:
- بيانات التدريب — مجموعات البيانات المحددة المستخدمة، وكيفية الحصول عليها، وما هي ظروف العمل التي أنتجتها، وما إذا كانت بيانات محمية بحقوق النشر أو شخصية مضمنة
- حوسبة التدريب — الأجهزة، الساعات، والبصمة الكربونية لعمليات التدريب
- استخدام النموذج — من يستخدم النموذج فعلاً، ولأي غرض، وبأي حجم
- التأثير النهائي — الآثار القابلة للقياس على أسواق العمل، وأنظمة المعلومات، ورفاهية المستخدم
في السنوات السابقة، كانت أفضل المختبرات تكشف عن معلومات ذات معنى في اثنين على الأقل من هذه المجالات الأربعة. بحلول 2025، الاتجاه هو صمت شبه كامل عبر الأربعة للشركات التي تبني النماذج الأكثر قدرة. تقلصت ملخصات مجموعات بيانات التدريب إلى أوصاف من فقرة واحدة. أعداد المعلمات تُحجب بشكل متزايد. ميزانيات الحوسبة مطموسة. المراقبة من طرف ثالث مرفوضة.
لماذا حدث الانهيار الآن
تضافرت ثلاث قوى لتسريع الانحدار.
الأولى هي الضغط التنافسي. أصبحت النماذج الأساسية واحدة من أكثر الفئات استراتيجية قيمة في التقنية، وتعامل المختبرات الرائدة وصفات التدريب وخطوط أنابيب البيانات واستراتيجيات الحوسبة بشكل متزايد كملكية فكرية أساسية. توثيق مزيج بيانات التدريب علناً هو، في تأطيرهم، تسليم منافس اختصاراً.
الثانية هي التعرض القانوني. خلقت قضايا حقوق الطبع والنشر البارزة في 2023-2025 — Getty ضد Stability و The New York Times ضد OpenAI وعشرات من الدعاوى الجماعية نيابة عن المؤلفين والفنانين — حوافز قوية لتقليل الأثر الورقي على بيانات التدريب. الكشف المبهم أسهل للدفاع عنه من الكشف المحدد.
الثالثة هي تحول ثقافي يصعب قياسه لكنه مرئي داخل المختبرات نفسها. مع تكثف الضغط التجاري، تآكلت معايير “البحث أولاً” التي أنتجت model cards و system cards مفصلة في 2022 و 2023. لا تزال safety cards تُنشر، لكن محتواها الكمي أصبح أرق، والتقييمات الخارجية قبل النشر تُكشف علناً بشكل أقل موثوقية.
إعلان
ردة الفعل القانونية وصلت
لم يحدث انهيار الشفافية في فراغ تنظيمي. لقد وصلت بالضبط عندما دخلت الموجة الأولى من قوانين الكشف الإلزامية عن الذكاء الاصطناعي حيز التنفيذ.
California AB 2013 — قانون شفافية بيانات التدريب — دخل حيز التنفيذ في 1 يناير 2026. يتطلب من مطوري أنظمة الذكاء الاصطناعي التوليدية المتاحة لمستخدمي كاليفورنيا أن ينشروا علناً، على مواقعهم الخاصة، ملخصات لمجموعات البيانات المستخدمة لتدريب نماذجهم، بما في ذلك مصادر مجموعات البيانات، وأنواع البيانات، وما إذا تم استخدام مواد محمية بحقوق النشر، وما إذا كانت المعلومات الشخصية مضمنة. يجب تحديث الكشوفات بعد التعديلات الجوهرية للنموذج.
نشرت OpenAI و Anthropic و Google كل منها وثائق AB 2013 الخاصة بها بحلول الموعد النهائي، رغم تفاوت ملحوظ في العمق. طعنت xAI في القانون أمام محكمة فيدرالية على أساس السر التجاري والتعديل الأول، مجادلة أن الكشف الإلزامي يلغي فعلياً قيمة خط أنابيب التدريب الخاص بها. أيدت محكمة فيدرالية مقاطعة متطلبات الشفافية الأساسية، والقضية مستمرة.
تتطلب أحكام الذكاء الاصطناعي للأغراض العامة (GPAI) لـ EU AI Act، التي دخلت حيز التنفيذ خلال 2025 وأوائل 2026، من كل مزود نموذج GPAI — بما في ذلك جميع LLMs الحدودية — نشر ملخص عام لمجموعات البيانات المستخدمة للتدريب، واحترام opt-outs حقوق النشر، ووسم المحتوى المولد بالذكاء الاصطناعي. لا يزال تطبيق الدول الأعضاء في مرحلة تصاعد، لكن الخط الأساسي القانوني أصبح الآن أعلى مما تكشف عنه معظم المختبرات طوعاً.
فوق ذلك: أمر تنفيذي من البيت الأبيض في ديسمبر 2025 يقترح إطاراً موحداً للسياسة الفيدرالية للذكاء الاصطناعي يمكن أن يستبق قوانين الذكاء الاصطناعي الولائية المعتبرة غير متسقة — خطوة قُرئت على نطاق واسع كرد على نظام الكشف الأكثر عدوانية في كاليفورنيا. ستكون معركة الاستباق الولائية-الفيدرالية واحدة من القصص المحددة للسياسة الأمريكية للذكاء الاصطناعي في 2026.
لماذا يهم هذا بعيداً عن الامتثال
الشفافية ليست قلقاً أكاديمياً. إنها أساس ثلاثة أشياء يعرضها انهيار النقاط للخطر المباشر.
المساءلة. بدون كشف ذي معنى لبيانات التدريب والحوسبة والتأثير النهائي، لا يستطيع الباحثون المستقلون تقييم ادعاءات المختبرات حول القدرات أو السلامة أو التأثير المجتمعي. تعتمد الرقابة العامة على أدلة توقفت المختبرات عن تقديمها.
الثقة. المؤسسات التي تتبنى النماذج الأساسية على نطاق واسع — البنوك والمستشفيات والحكومات — تواجه بشكل متزايد خياراً بين نشر أنظمة لا يمكنها التحقق من أصلها أو رفض النشر على الإطلاق. يرفع انهيار FMTI مباشرة المخاطر السمعية والقانونية للأول.
التنظيم الذي يعمل فعلاً. السياسة المبنية على الإبلاغ الذاتي تتطلب من المختبرات الإبلاغ. عندما تكشف المختبرات التي تبني النماذج الأكثر تبعية عن أقل من موردي المستوى الثالث، تتدهور قاعدة الأدلة بأكملها لتنظيم منطقي. يُجبر المشرعون بعد ذلك على تصميم قواعد لنظام لا يمكنهم ملاحظته.
ما سيستعيد الشفافية فعلاً
يجادل مؤلفو FMTI، ويوافق معظم المراقبين خارج المختبرات، أن المسار قابل للعكس — لكن فقط بضغط خارجي ذي معنى. ثلاث أدوات لها أقوى سجل:
- قوانين كشف قابلة للتنفيذ بأسنان. California AB 2013 والتزامات GPAI في EU AI Act هي محاولات الجيل الأول؛ التطبيق الفعال بعقوبات ذات معنى سيحدد ما إذا كانت ستغير السلوك.
- ضغط المشتريات. يمكن للمشترين في المؤسسات والحكومات المطالبة بإفصاحات من نوع FMTI كشرط للعقود. يتحرك عدة مشترين أوروبيين كبار بالفعل في هذا الاتجاه.
- معايير مضادة للصناعة. يُظهر تقييم IBM بـ 95 نقطة أن الشفافية العالية متوافقة مع القدرة التنافسية التجارية. الأهم من ذلك، النظام البيئي open-weights — Mistral تاريخياً، DeepSeek، عائلة Llama من Meta، والمختبرات المفتوحة الأصغر — يمكن أن يعيد ضبط معايير الصناعة إذا فضّل المشترون والباحثون الموردين الشفافين بنشاط.
لا يضمن أي من هذه الأدوات العمل. كلها تواجه ضغطاً مضاداً قوياً من الفرق القانونية والتجارية للمختبرات. لكن مؤشر 2025 يعطي صانعي السياسات والمشترين والباحثين أوضح صورة كمية حتى الآن لأين يتركز الغموض وأي الأدوات تستهدفه بشكل أكثر مباشرة.
الخلاصة
بيئة سياسة 2026 حول شفافية الذكاء الاصطناعي محددة الآن بفجوة تتسع. على جانب واحد، تصبح القوانين وأطر الكشف أكثر صرامة في كاليفورنيا وبروكسل وبشكل متزايد في اختصاصات أخرى. على الجانب الآخر، الشركات التي تبني النماذج الأكثر تبعية تكشف أقل مما كانت عليه قبل عامين. ستُغلق هذه الفجوة بإحدى طريقتين: إما أن يجبر التطبيق المختبرات على العودة نحو الكشف ذي المعنى، أو تُخفف القوانين تحت ضغط الضغط والاستباق.
سيستمر مؤشر Stanford في قياس النتيجة. على المسار الحالي، لإصدار 2026 مجال للانخفاض أكثر.
الأسئلة الشائعة
كم انخفضت الشفافية فعلاً في مؤشر 2025؟
انخفضت متوسط نقاط Foundation Model Transparency Index من 58 في 2024 إلى 40 في 2025، انخفاض 18 نقطة في عام واحد. انخفضت Meta من 60 إلى 31 (تقريباً النصف)، و Mistral من 55 إلى 18 (أكثر من الثلثين). من الشركات الست التي تم تقييمها في جميع الإصدارات الثلاثة، انتقلت Meta و OpenAI من الأولى والثانية في 2023 إلى الأخيرة وما قبل الأخيرة في 2025. ظهرت IBM كاستثناء واضح بـ 95.
ماذا يتطلب California AB 2013 ومتى دخل حيز التنفيذ؟
AB 2013 — قانون شفافية بيانات التدريب — دخل حيز التنفيذ في 1 يناير 2026. يتطلب من مطوري أنظمة الذكاء الاصطناعي التوليدية المتاحة لمستخدمي كاليفورنيا نشر ملخصات مجموعات بيانات التدريب علناً، بما في ذلك المصادر وأنواع البيانات وما إذا تم استخدام مواد محمية بحقوق النشر وما إذا كانت المعلومات الشخصية مضمنة. يجب تحديث الكشوفات بعد التعديلات الجوهرية للنموذج. نشرت OpenAI و Anthropic و Google الوثائق بحلول الموعد النهائي؛ تطعن xAI في القانون على أساس السر التجاري والتعديل الأول.
ما الأدوات التي يمكنها فعلاً استعادة الشفافية؟
قوانين كشف قابلة للتنفيذ بعقوبات ذات معنى (AB 2013 والتزامات GPAI في EU AI Act)، ضغط المشتريات من المشترين في المؤسسات والحكومات الذين يطالبون بإفصاحات من نوع FMTI في العقود، ومعايير مضادة للصناعة تقودها موردون شفافون مثل IBM (95 نقطة) والنظام البيئي open-weights.
المصادر والقراءات الإضافية
- The 2025 Foundation Model Transparency Index — Stanford CRFM (paper PDF)
- The 2025 Foundation Model Transparency Index — arXiv 2512.10169
- Foundation Model Transparency Index — Stanford CRFM landing page
- Transparency in AI is on the Decline — Stanford HAI
- Inside the AI Index: 12 Takeaways from the 2026 Report — Stanford HAI
- California’s AB 2013 Requires Generative AI Data Disclosure by January 1, 2026 — Crowell & Moring LLP
- xAI Challenges California’s Training Data Transparency Act — Goodwin
- EU AI Act 2026: New Rules for Training Data and Copyright — Scalevise






