⚡ أبرز النقاط

وقّعت الحاكمة Hochul تعديلات New York RAISE Act في 27 مارس 2026. اعتباراً من 1 يناير 2027، يجب على مُطوّري الذكاء الاصطناعي الحدودي نشر إطار ذكاء اصطناعي حدودي وتقرير شفافية، مع إنفاذ من قبل مكتب إشراف NYDFS جديد وعقوبات مدنية من 1 م$ إلى 3 م$ لكل انتهاك.

خلاصة: يجب على مشتري الذكاء الاصطناعي وفِرق المشتريات تحديث العناية الواجبة للمورّدين لطلب إفصاحات RAISE Act من مزودي النماذج الحدودية الأمريكيين، باستخدام تقارير الشفافية المدعومة من المُنظّم كحقيقة أرضية للقدرات والقيود.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار

الأهمية بالنسبة للجزائر
متوسط

ستستفيد المؤسسات والشركات الناشئة الجزائرية التي تشتري APIs للنماذج الحدودية من مختبرات الولايات المتحدة الكبرى من تقارير الشفافية المدعومة من المُنظّم التي يُلزم بها RAISE، حتى دون أي التزام محلي مباشر.
البنية التحتية جاهزة؟
نعم

لا تتطلب تغييرات في البنية التحتية؛ يستهلك المشترون الجزائريون بالفعل النماذج الحدودية عبر الإنترنت.
المهارات متوفرة؟
جزئي

فرق المشتريات والقانون في الجزائر لديها خبرة محدودة في تحليل إفصاحات الذكاء الاصطناعي للولايات الأمريكية؛ هذا يحتاج إلى بناء قدرات.
الجدول الزمني للعمل
12-24 شهراً

ستبدأ الأُطُر المنشورة وتقارير الشفافية في الهبوط في الربع الرابع 2026 وستصبح مدخلات مشتريات قياسية طوال 2027.
أصحاب المصلحة الرئيسيون
CIO, قادة المشتريات, المستشارون القانونيون,
نوع القرار
تعليمي

الفرق الجزائرية مستخدمون نهائيون للنظام بدلاً من خاضعين له؛ القيمة في فهم ما يجب طلبه من مورّدي الذكاء الاصطناعي.

خلاصة سريعة: يجب على CIO الجزائريين وفِرق منتجات الذكاء الاصطناعي تحديث قوائم العناية الواجبة للمورّدين لطلب إفصاحات RAISE Act وأُطر الذكاء الاصطناعي الحدودي من مزودي النماذج الأمريكيين. يُعطي هذا المشترين الجزائريين وصولاً مجانياً إلى وثائق من مستوى المُنظّم حول قدرات النموذج وحدوده ووضعية المخاطر الكارثية — معلومات كانت تتطلب سابقاً استشارة مكلفة أو اتفاقيات NDA للحصول عليها.

ما الذي يفعله RAISE Act

قانون Responsible AI Safety and Education Act (RAISE Act) هو أول نظام قانوني في New York يستهدف تحديداً مُطوّري الذكاء الاصطناعي الحدوديين — الحفنة من الشركات (OpenAI وAnthropic وGoogle DeepMind وMeta وxAI وعدد قليل آخر) التي تُدرّب النماذج عند أعلى عتبات الحوسبة.

أقرّ مجلسا البرلمان الأصلي في يونيو 2025. بعد فترة مفاوضات طويلة، قُدّمت التعديلات في 6 يناير 2026، ومرّت عبر الغرفة الثانية في 11 مارس 2026، ووُقّعت قانوناً من قبل الحاكمة Hochul في 27 مارس 2026، وفقاً لتنبيه عميل Norton Rose Fulbright.

يُطبَّق القانون المعدّل على النماذج الحدودية “المُطوَّرة أو المنشورة أو العاملة” في New York، ويدخل حيز التنفيذ في 1 يناير 2027.

الاشتراطات الخمسة التي يدين بها مُطوّرو الحدود الآن

بناءً على تحليلات من Davis Wright Tremaine وAlston & Bird وWiley، يفرض RAISE Act المعدّل خمسة واجبات أساسية:

  • نشر إطار الذكاء الاصطناعي الحدودي — يحل محل اشتراط “بروتوكول السلامة والأمن” الأصلي. يجب أن يصف نهج المُطوّر لتحديد المخاطر الكارثية والتخفيف منها.
  • نشر تقرير شفافية — يكشف تاريخ إصدار النموذج، واللغات المدعومة، وأنماط الإخراج، والاستخدامات المقصودة، وقيود الاستخدام. يعكس هذا Transparency in Frontier Artificial Intelligence Act (TFAIA) في California.
  • تقديم تقييمات المخاطر الكارثية لمكتب الإشراف الجديد.
  • الإبلاغ عن الحوادث — الإخفاقات المادية أو إساءة الاستخدام التي قد تُسبّب ضرراً كارثياً.
  • الاحتفاظ بالسجلات للفحص من قبل مكتب NYDFS.

المقر الجديد للإنفاذ

تنقل التعديلات الإشراف التنظيمي من NY Division of Homeland Security and Emergency Services إلى مكتب جديد داخل NY Department of Financial Services (DFS). هذه خطوة ذات مغزى: NYDFS تتمتع بسمعة إنفاذ قوية، وتنظيم أمن سيبراني حقيقي الأسنان، وخبرة مؤسسية في تدقيق الكيانات التي تُنظّمها. بالنسبة لمختبرات الذكاء الاصطناعي الحدودية، يرث DFS الملف.

تبدأ العقوبات المدنية من 1 مليون دولار لانتهاك أولي ويمكن أن تصل إلى 3 ملايين دولار للانتهاكات اللاحقة — أعلى بكثير من معظم القوانين التقنية للولايات لكنها أقل بكثير من الحد الأقصى الذي تفرضه EU AI Act وهو 7% من الإيرادات العالمية.

إعلان

لماذا يهم التوافق مع California

تحليل Cooley الصادر في 31 مارس 2026 حاد: القانون المعدّل لـ New York “تكاليفورن” — أصبح الآن يتتبع TFAIA الكاليفورني عن كثب في هيكل تقرير الشفافية، مع الحفاظ على آليات الإنفاذ الخاصة بـ NY. هذا يهم لسببين:

  • الامتثال في ولايتين أصبح أرخص. مختبرات الحدود التي تُنتج وثيقة إطار متوافقة مع TFAIA يمكنها إعادة استخدامها إلى حد كبير لـ NY RAISE.
  • يتوقع الاستباق الفدرالي. إذا أقرّ الكونغرس قانون استباق للذكاء الاصطناعي في أعقاب إطار البيت الأبيض لمارس 2026، فالأنظمة الولائية الأكثر تداخلاً هي الأكثر احتمالاً للبقاء كمناطق آمنة بدلاً من الإزاحة الكاملة.

النطاق: من يدخل فعلياً

يستهدف RAISE Act “مُطوّري الحدود الكبار” — مصطلح فني يلتقط عملياً النماذج المُدرَّبة فوق عتبة حوسبة يربطها القانون بالنماذج الرائدة حوالي 2024-2025 (نطاق 10^26 FLOP الذي يُذكر عادةً في مشاريع قوانين الذكاء الاصطناعي للولايات). يلتقط هذا:

  • OpenAI, Anthropic, Google DeepMind, Meta AI, xAI, Mistral, Cohere
  • ربما أكبر إصدارات open-weight (Llama, DeepSeek V4-class)
  • لا: الشركات الناشئة التي تُحكم النماذج الحدودية، والشركات التي تبني منتجات في طبقة التطبيق

بالنسبة لفِرق المؤسسات التي تستخدم النماذج الحدودية، RAISE ليس التزام امتثال مباشر — لكن الأُطُر المنشورة وتقارير الشفافية تصبح مدخلات مشتريات مجانية وعالية الجودة.

السياق العالمي: سباق تنظيم الحدود

ينضم RAISE إلى مجموعة عالمية صغيرة لكنها متنامية من أنظمة الذكاء الاصطناعي الخاصة بالحدود:

  • EU AI Act — يُطبَّق على “الذكاء الاصطناعي للأغراض العامة ذي المخاطر المنهجية” فوق 10^25 FLOPs، مع قواعد ممارسة خاصة به.
  • TFAIA في California — نشرتها إدارة الحاكم Newsom كقالب شفافية الحدود الأمريكي.
  • اتفاقيات الاختبار الطوعية لـ UK AI Safety Institute — غير قانونية لكن مؤثرة.
  • مشروع قانون الذكاء الاصطناعي 2026 في كينيا — قائم على المخاطر، أوسع نطاقاً، يستهدف جميع المُطوّرين بما في ذلك الأصغر.

يقع RAISE Act في المنتصف: أضيق من EU AI Act، أكثر قابلية للإنفاذ من النظام الطوعي البريطاني، أثقل في العقوبات من معظم قوانين التكنولوجيا للولايات.

ما الذي يجب على مشتري الذكاء الاصطناعي في المؤسسات تتبّعه

ثلاث نقاط عملية لـ CIO ومسؤولي المشتريات المتعاقدين مع مختبرات الحدود:

  • اطلب إفصاحات مختبرات RAISE Act كجزء من العناية الواجبة للمورّد بدءاً من الربع الرابع 2026. ستكشف الأُطُر المنشورة كيف يُبرّر كل مختبر المخاطر الكارثية.
  • عامل تقارير الشفافية كحقيقة أرضية لقدرات النموذج وقيوده — تُقدَّم تحت معايير دقة قابلة للإنفاذ مع NYDFS.
  • راجع سلاسل إخطار الحوادث في عقود مختبرات الحدود. قد تتدفق الجداول الزمنية للإبلاغ المُلزَمة بموجب RAISE إلى التزامات إخطار العملاء.

أكبر تأثير لـ RAISE Act قد لا يكون على مختبرات الحدود نفسها — معظمها يُدير بالفعل فرق سلامة مُفصّلة — لكن على نظام المشترين في المرحلة اللاحقة الذين يحصلون أخيراً على رؤية موحدة ومدعومة من المُنظّم لما يمكن للنماذج وما لا يمكنها فعله.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

من هو “مُطوّر الحدود” بموجب RAISE Act؟

يُعرّف RAISE Act “مُطوّري الحدود الكبار” حسب عتبة الحوسبة ونطاق الإيرادات، مُلتقطاً الحفنة من المختبرات التي تُدرّب نماذج الذكاء الاصطناعي الأكثر قدرة — OpenAI, Anthropic, Google DeepMind, Meta AI, xAI, Mistral, Cohere والمشابه لها. الشركات الناشئة التي تُحكم النماذج الحدودية القائمة، أو الشركات التي تبني منتجات طبقة التطبيق فوقها، ليست ضمن النطاق.

ماذا يحدث إذا لم يمتثل مُطوّر حدود؟

NY Department of Financial Services مُخوَّل بفرض عقوبات مدنية تبدأ من 1 مليون دولار لكل انتهاك وترتفع إلى 3 ملايين دولار للانتهاكات اللاحقة. يعيش الإنفاذ مع مكتب الإشراف الجديد التابع لـ NYDFS. على عكس معظم القوانين التقنية للولايات، ليس لدى RAISE حق التقاضي الخاص — الإنفاذ مُمركَز مع المُنظّم.

هل RAISE Act هو نفسه TFAIA في California؟

هما متوافقان بشكل وثيق بعد تعديلات مارس 2026، لكن ليسا متطابقَين. كلاهما يتطلب تقارير شفافية منشورة وأُطُر ذكاء اصطناعي حدودي؛ يُدير TFAIA قسم التكنولوجيا في California بينما يُدير RAISE عبر NYDFS. يمكن لمختبرات الحدود إعادة استخدام وثيقة إطار واحدة إلى حد كبير عبر كلا النظامين، وهو هدف تصميم صريح لتعديلات مارس.

المصادر والقراءات الإضافية