⚡ أبرز النقاط

انخفض متوسط نقاط Foundation Model Transparency Index 2025 من Stanford إلى 40 من 100، بعد أن كان 58 في العام السابق — انهيار 18 نقطة في سنة واحدة. خفضت Meta نقاطها تقريباً إلى النصف (60 إلى 31)، وسقطت Mistral من 55 إلى 18، وانتقلت Meta و OpenAI من الأولى والثانية في 2023 إلى الأخيرة وما قبل الأخيرة في 2025. IBM هي الاستثناء الإيجابي بـ 95؛ تجلس xAI و Midjourney عند 14. جاء الانهيار بالضبط عند دخول California AB 2013 حيز التنفيذ في 1 يناير 2026 وبدء تطبيق التزامات GPAI في EU AI Act على كل LLM حدودي.

خلاصة: أضف إفصاحات من نوع FMTI لبيانات التدريب والحوسبة إلى كل عقد مشتريات عامة ومنظمة هذا الربع — الشفافية الطوعية لم تعد الحد الأدنى.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
عالية

تبدأ البنوك والمستشفيات وشركات الاتصالات والوكالات الحكومية الجزائرية في تبني النماذج الأساسية دون القدرة على التحقق من أصل بيانات التدريب أو وضع الترخيص أو التعرض لحقوق النشر.
البنية التحتية جاهزة؟
جزئياً

لدى فرق المشتريات عمليات مراجعة موردين أساسية لكن قلة لديها معايير شفافية من نوع FMTI في عقودها.
المهارات متوفرة؟
محدودة

معرفة القراءة والكتابة في سياسة الذكاء الاصطناعي مركزة في دائرة صغيرة من الأكاديميين؛ معظم المشترين في المؤسسات ليس لديهم قدرة داخلية لتقييم ادعاءات شفافية النماذج.
الجدول الزمني للعمل
فوري

يمكن تحديث لغة المشتريات هذا الربع؛ أطر السيادة مسار 12-24 شهراً.
أصحاب المصلحة الرئيسيون
ARPCE, MPTN، مدراء تقنية المعلومات في القطاع العام، مدراء تقنية المعلومات للبنوك، مدراء تقنية المعلومات للمستشفيات، باحثو الذكاء الاصطناعي الجزائريون
نوع القرار
استراتيجي

معايير المشتريات وموقف السيادة، وليس مجرد اختيار مورد تكتيكي.

خلاصة سريعة: للمشترين العموميين الجزائريين والمؤسسات المنظمة، انهيار FMTI هو حجة مباشرة لاشتراط إفصاحات من نوع FMTI كشرط للمشتريات. تقدم خيارات open-weights (Mistral، DeepSeek، عائلة Llama) والموردون الشفافون بشكل غير عادي (IBM بـ 95 نقطة) بديلاً ذا معنى — ونسخ خط California AB 2013 الأساسي إلى المشتريات العامة هو خطوة أولى رخيصة وقابلة للتنفيذ بينما تُلعب المعركة بين الاتحاد الأوروبي والولايات المتحدة.

النماذج الأكثر قدرة هي الآن الأكثر غموضاً

قدم Foundation Model Transparency Index (FMTI) لعام 2025، الصادر عن Stanford Center for Research on Foundation Models و Stanford Institute for Human-Centered AI، أوضح إشارة لسنة واحدة حول غموض الذكاء الاصطناعي منذ بدأ المؤشر في 2023. عبر 100 مؤشر تغطي بيانات التدريب، والحوسبة، وبنية النموذج، والقدرات، والمخاطر، والاستخدام، والتأثير النهائي، انخفض متوسط درجة الشفافية إلى 40 نقطة من أصل 100، بعد أن كان 58 في العام السابق.

كانت الانخفاضات الفردية للشركات أكثر حدة. Meta، التي كانت من الأفضل أداءً في 2023، خفضت نقاطها تقريباً إلى النصف — من 60 إلى 31. Mistral، التي كانت تُرى ذات يوم كقائدة أوروبية في الشفافية، انهارت من 55 إلى 18. من الشركات الست التي تم تقييمها في جميع إصدارات المؤشر الثلاثة، انتقلت Meta و OpenAI من الأولى والثانية في 2023 إلى الأخيرة وما قبل الأخيرة في 2025. ظهرت IBM كاستثناء إيجابي واضح بنقاط 95؛ تجلس xAI و Midjourney في القاع بـ 14 لكل منهما.

النمط لا لبس فيه: مع ازدياد القيمة التجارية للنماذج الأساسية، أصبحت الشركات التي تبنيها أقل استعداداً باستمرار للكشف عن كيفية بنائها.

ما تخفيه مختبرات الذكاء الاصطناعي

يقيس FMTI الشفافية عبر ثلاثة مجالات رفيعة المستوى: المنبع (الموارد المستخدمة لبناء النموذج)، النموذج (خصائص النموذج نفسه)، والمصب (كيفية استخدام النموذج وتأثيره على المستخدمين). حدد تقرير 2025 أربع مناطق من “الغموض المنهجي” — مواضيع تحرز فيها الصناعة بأكملها الآن درجات ضعيفة:

  • بيانات التدريب — مجموعات البيانات المحددة المستخدمة، وكيفية الحصول عليها، وما هي ظروف العمل التي أنتجتها، وما إذا كانت بيانات محمية بحقوق النشر أو شخصية مضمنة
  • حوسبة التدريب — الأجهزة، الساعات، والبصمة الكربونية لعمليات التدريب
  • استخدام النموذج — من يستخدم النموذج فعلاً، ولأي غرض، وبأي حجم
  • التأثير النهائي — الآثار القابلة للقياس على أسواق العمل، وأنظمة المعلومات، ورفاهية المستخدم

في السنوات السابقة، كانت أفضل المختبرات تكشف عن معلومات ذات معنى في اثنين على الأقل من هذه المجالات الأربعة. بحلول 2025، الاتجاه هو صمت شبه كامل عبر الأربعة للشركات التي تبني النماذج الأكثر قدرة. تقلصت ملخصات مجموعات بيانات التدريب إلى أوصاف من فقرة واحدة. أعداد المعلمات تُحجب بشكل متزايد. ميزانيات الحوسبة مطموسة. المراقبة من طرف ثالث مرفوضة.

لماذا حدث الانهيار الآن

تضافرت ثلاث قوى لتسريع الانحدار.

الأولى هي الضغط التنافسي. أصبحت النماذج الأساسية واحدة من أكثر الفئات استراتيجية قيمة في التقنية، وتعامل المختبرات الرائدة وصفات التدريب وخطوط أنابيب البيانات واستراتيجيات الحوسبة بشكل متزايد كملكية فكرية أساسية. توثيق مزيج بيانات التدريب علناً هو، في تأطيرهم، تسليم منافس اختصاراً.

الثانية هي التعرض القانوني. خلقت قضايا حقوق الطبع والنشر البارزة في 2023-2025 — Getty ضد Stability و The New York Times ضد OpenAI وعشرات من الدعاوى الجماعية نيابة عن المؤلفين والفنانين — حوافز قوية لتقليل الأثر الورقي على بيانات التدريب. الكشف المبهم أسهل للدفاع عنه من الكشف المحدد.

الثالثة هي تحول ثقافي يصعب قياسه لكنه مرئي داخل المختبرات نفسها. مع تكثف الضغط التجاري، تآكلت معايير “البحث أولاً” التي أنتجت model cards و system cards مفصلة في 2022 و 2023. لا تزال safety cards تُنشر، لكن محتواها الكمي أصبح أرق، والتقييمات الخارجية قبل النشر تُكشف علناً بشكل أقل موثوقية.

إعلان

ردة الفعل القانونية وصلت

لم يحدث انهيار الشفافية في فراغ تنظيمي. لقد وصلت بالضبط عندما دخلت الموجة الأولى من قوانين الكشف الإلزامية عن الذكاء الاصطناعي حيز التنفيذ.

California AB 2013 — قانون شفافية بيانات التدريب — دخل حيز التنفيذ في 1 يناير 2026. يتطلب من مطوري أنظمة الذكاء الاصطناعي التوليدية المتاحة لمستخدمي كاليفورنيا أن ينشروا علناً، على مواقعهم الخاصة، ملخصات لمجموعات البيانات المستخدمة لتدريب نماذجهم، بما في ذلك مصادر مجموعات البيانات، وأنواع البيانات، وما إذا تم استخدام مواد محمية بحقوق النشر، وما إذا كانت المعلومات الشخصية مضمنة. يجب تحديث الكشوفات بعد التعديلات الجوهرية للنموذج.

نشرت OpenAI و Anthropic و Google كل منها وثائق AB 2013 الخاصة بها بحلول الموعد النهائي، رغم تفاوت ملحوظ في العمق. طعنت xAI في القانون أمام محكمة فيدرالية على أساس السر التجاري والتعديل الأول، مجادلة أن الكشف الإلزامي يلغي فعلياً قيمة خط أنابيب التدريب الخاص بها. أيدت محكمة فيدرالية مقاطعة متطلبات الشفافية الأساسية، والقضية مستمرة.

تتطلب أحكام الذكاء الاصطناعي للأغراض العامة (GPAI) لـ EU AI Act، التي دخلت حيز التنفيذ خلال 2025 وأوائل 2026، من كل مزود نموذج GPAI — بما في ذلك جميع LLMs الحدودية — نشر ملخص عام لمجموعات البيانات المستخدمة للتدريب، واحترام opt-outs حقوق النشر، ووسم المحتوى المولد بالذكاء الاصطناعي. لا يزال تطبيق الدول الأعضاء في مرحلة تصاعد، لكن الخط الأساسي القانوني أصبح الآن أعلى مما تكشف عنه معظم المختبرات طوعاً.

فوق ذلك: أمر تنفيذي من البيت الأبيض في ديسمبر 2025 يقترح إطاراً موحداً للسياسة الفيدرالية للذكاء الاصطناعي يمكن أن يستبق قوانين الذكاء الاصطناعي الولائية المعتبرة غير متسقة — خطوة قُرئت على نطاق واسع كرد على نظام الكشف الأكثر عدوانية في كاليفورنيا. ستكون معركة الاستباق الولائية-الفيدرالية واحدة من القصص المحددة للسياسة الأمريكية للذكاء الاصطناعي في 2026.

لماذا يهم هذا بعيداً عن الامتثال

الشفافية ليست قلقاً أكاديمياً. إنها أساس ثلاثة أشياء يعرضها انهيار النقاط للخطر المباشر.

المساءلة. بدون كشف ذي معنى لبيانات التدريب والحوسبة والتأثير النهائي، لا يستطيع الباحثون المستقلون تقييم ادعاءات المختبرات حول القدرات أو السلامة أو التأثير المجتمعي. تعتمد الرقابة العامة على أدلة توقفت المختبرات عن تقديمها.

الثقة. المؤسسات التي تتبنى النماذج الأساسية على نطاق واسع — البنوك والمستشفيات والحكومات — تواجه بشكل متزايد خياراً بين نشر أنظمة لا يمكنها التحقق من أصلها أو رفض النشر على الإطلاق. يرفع انهيار FMTI مباشرة المخاطر السمعية والقانونية للأول.

التنظيم الذي يعمل فعلاً. السياسة المبنية على الإبلاغ الذاتي تتطلب من المختبرات الإبلاغ. عندما تكشف المختبرات التي تبني النماذج الأكثر تبعية عن أقل من موردي المستوى الثالث، تتدهور قاعدة الأدلة بأكملها لتنظيم منطقي. يُجبر المشرعون بعد ذلك على تصميم قواعد لنظام لا يمكنهم ملاحظته.

ما سيستعيد الشفافية فعلاً

يجادل مؤلفو FMTI، ويوافق معظم المراقبين خارج المختبرات، أن المسار قابل للعكس — لكن فقط بضغط خارجي ذي معنى. ثلاث أدوات لها أقوى سجل:

  1. قوانين كشف قابلة للتنفيذ بأسنان. California AB 2013 والتزامات GPAI في EU AI Act هي محاولات الجيل الأول؛ التطبيق الفعال بعقوبات ذات معنى سيحدد ما إذا كانت ستغير السلوك.
  2. ضغط المشتريات. يمكن للمشترين في المؤسسات والحكومات المطالبة بإفصاحات من نوع FMTI كشرط للعقود. يتحرك عدة مشترين أوروبيين كبار بالفعل في هذا الاتجاه.
  3. معايير مضادة للصناعة. يُظهر تقييم IBM بـ 95 نقطة أن الشفافية العالية متوافقة مع القدرة التنافسية التجارية. الأهم من ذلك، النظام البيئي open-weights — Mistral تاريخياً، DeepSeek، عائلة Llama من Meta، والمختبرات المفتوحة الأصغر — يمكن أن يعيد ضبط معايير الصناعة إذا فضّل المشترون والباحثون الموردين الشفافين بنشاط.

لا يضمن أي من هذه الأدوات العمل. كلها تواجه ضغطاً مضاداً قوياً من الفرق القانونية والتجارية للمختبرات. لكن مؤشر 2025 يعطي صانعي السياسات والمشترين والباحثين أوضح صورة كمية حتى الآن لأين يتركز الغموض وأي الأدوات تستهدفه بشكل أكثر مباشرة.

الخلاصة

بيئة سياسة 2026 حول شفافية الذكاء الاصطناعي محددة الآن بفجوة تتسع. على جانب واحد، تصبح القوانين وأطر الكشف أكثر صرامة في كاليفورنيا وبروكسل وبشكل متزايد في اختصاصات أخرى. على الجانب الآخر، الشركات التي تبني النماذج الأكثر تبعية تكشف أقل مما كانت عليه قبل عامين. ستُغلق هذه الفجوة بإحدى طريقتين: إما أن يجبر التطبيق المختبرات على العودة نحو الكشف ذي المعنى، أو تُخفف القوانين تحت ضغط الضغط والاستباق.

سيستمر مؤشر Stanford في قياس النتيجة. على المسار الحالي، لإصدار 2026 مجال للانخفاض أكثر.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

كم انخفضت الشفافية فعلاً في مؤشر 2025؟

انخفضت متوسط نقاط Foundation Model Transparency Index من 58 في 2024 إلى 40 في 2025، انخفاض 18 نقطة في عام واحد. انخفضت Meta من 60 إلى 31 (تقريباً النصف)، و Mistral من 55 إلى 18 (أكثر من الثلثين). من الشركات الست التي تم تقييمها في جميع الإصدارات الثلاثة، انتقلت Meta و OpenAI من الأولى والثانية في 2023 إلى الأخيرة وما قبل الأخيرة في 2025. ظهرت IBM كاستثناء واضح بـ 95.

ماذا يتطلب California AB 2013 ومتى دخل حيز التنفيذ؟

AB 2013 — قانون شفافية بيانات التدريب — دخل حيز التنفيذ في 1 يناير 2026. يتطلب من مطوري أنظمة الذكاء الاصطناعي التوليدية المتاحة لمستخدمي كاليفورنيا نشر ملخصات مجموعات بيانات التدريب علناً، بما في ذلك المصادر وأنواع البيانات وما إذا تم استخدام مواد محمية بحقوق النشر وما إذا كانت المعلومات الشخصية مضمنة. يجب تحديث الكشوفات بعد التعديلات الجوهرية للنموذج. نشرت OpenAI و Anthropic و Google الوثائق بحلول الموعد النهائي؛ تطعن xAI في القانون على أساس السر التجاري والتعديل الأول.

ما الأدوات التي يمكنها فعلاً استعادة الشفافية؟

قوانين كشف قابلة للتنفيذ بعقوبات ذات معنى (AB 2013 والتزامات GPAI في EU AI Act)، ضغط المشتريات من المشترين في المؤسسات والحكومات الذين يطالبون بإفصاحات من نوع FMTI في العقود، ومعايير مضادة للصناعة تقودها موردون شفافون مثل IBM (95 نقطة) والنظام البيئي open-weights.

المصادر والقراءات الإضافية