مطلع عام 2026، اندلعت المواجهة الأكثر أهمية بين شركة ذكاء اصطناعي رائدة والحكومة الأمريكية على الملأ. رفضت Anthropic، صانعة Claude، إزالة الضمانات الأخلاقية من نماذجها للذكاء الاصطناعي بناءً على طلب Pentagon — وأُقصيت فعلياً من العقود الفيدرالية نتيجة لذلك. في غضون ساعات، أعلنت المنافسة OpenAI عن اتفاقية دفاعية خاصة بها. يُعيد هذا الحدث تشكيل الطريقة التي تفكر بها الحكومات وشركات الذكاء الاصطناعي والرأي العام حول من يتحكم في أقوى تقنية في العصر.
المحفّز
تعود جذور النزاع إلى عملية عسكرية محددة. في 3 يناير 2026، استخدمت القوات الأمريكية أنظمة الاستهداف المدعومة بالذكاء الاصطناعي من Palantir في عملية مرتبطة بالقبض على الرئيس الفنزويلي Nicolás Maduro. اعتماد العملية على قدرات الذكاء الاصطناعي — ودور Palantir فيها — دفع وزير الدفاع Pete Hegseth لإصدار مذكرة في يناير 2026 بعنوان “تسريع هيمنة الذكاء الاصطناعي العسكري الأمريكي”، موجّهاً Pentagon لتوسيع اقتناء الذكاء الاصطناعي عبر جميع الأفرع العسكرية ومطالباً المتعاقدين بإزالة قيود الاستخدام التي قد تحدّ من المرونة التشغيلية.
نماذج Claude من Anthropic، المستخدمة أصلاً في بعض المهام التحليلية الدفاعية، تضمّنت ضمانات تحظر صراحة المراقبة الجماعية المحلية، واستخدام الأسلحة الفتاكة المستقلة بالكامل، والقرارات الآلية عالية المخاطر دون إشراف بشري. هذه القيود، المدمجة في سياسة التوسع المسؤول (RSP) لدى Anthropic، كانت بالتحديد ما أراد Pentagon إزالته.
الإنذار والرفض
في 24 فبراير 2026، وجّه Pentagon إنذاراً رسمياً لـ Anthropic: إزالة قيود الاستخدام المتنازع عليها بحلول الساعة 5:01 مساء يوم الجمعة أو مواجهة التصنيف كخطر على سلسلة التوريد. في اليوم ذاته، أصدرت Anthropic نسخة محدّثة من سياسة التوسع المسؤول (النسخة 3.0)، أبقت فيها على التزاماتها الأمنية القائمة بل وعزّزت بعضها في حالات معينة — إشارة مباشرة بأن الشركة لن تمتثل.
في 27 فبراير، أكّد الرئيس التنفيذي لـ Anthropic، Dario Amodei، علنياً رفض الشركة. وفقاً لـ AP News، شرع Pentagon بعدها في التصنيف الرسمي لـ Anthropic كخطر على سلسلة التوريد — وهو تصنيف أقصى الشركة فعلياً من العقود الفيدرالية وأشار إلى الوكالات الأخرى بأن منتجات Anthropic تحمل مخاطر اقتنائية. مثّل هذا التصنيف عاقبة ملموسة وليس مجرد تهديد.
أمر الرئيس Trump لاحقاً جميع الوكالات الفيدرالية بالتوقف عن استخدام منتجات Anthropic — خطوة غير مسبوقة وسّعت النزاع من وزارة الدفاع إلى الحكومة الفيدرالية بأكملها.
OpenAI تدخل على الخط
كان التباين مع نهج OpenAI فورياً ومتعمّداً. في اليوم ذاته الذي أُقصيت فيه Anthropic، أعلنت OpenAI عن اتفاقية مع وزارة الدفاع بقيمة تُقدّر بـ 200 مليون دولار — ضمن حزمة اقتناء ذكاء اصطناعي أوسع من Pentagon بقيمة 800 مليون دولار موزّعة على أربع شركات.
أفادت Reuters بأن اتفاقية OpenAI تضمّنت ضمانات تعاقدية تغطي ثلاث فئات: حظر المراقبة الجماعية المحلية، وحظر الأسلحة الفتاكة المستقلة بالكامل، وقيود على القرارات الآلية عالية المخاطر دون إشراف بشري. اختلفت البنية جذرياً عن نهج Anthropic:
- Anthropic: قيود صارمة مدمجة في سياسات استخدام النماذج وسياسة التوسع المسؤول؛ مستعدة لرفض العقود الحكومية بالكامل بدلاً من تعديل التزامات السلامة
- OpenAI: ضمانات تعاقدية يُتفاوض عليها حالة بحالة مع كل عميل؛ مستعدة للتعاون مع الدفاع وفق شروط متفق عليها
يعكس هذا التباين اختلافات فلسفية أعمق بين الشركتين. تتعامل Anthropic مع سياسات سلامتها كقيود تقنية غير قابلة للتفاوض — جزء من الإطار التشغيلي للنموذج. تتعامل OpenAI مع السلامة كمسألة تعاقدية — يُتفاوض عليها ويُوثّقها وتُنفّذ عبر اتفاقيات قانونية بدلاً من القيود التقنية.
إعلان
ردود فعل الصناعة
كانت التداعيات سريعة وعابرة للخطوط المتوقعة. وقّع أكثر من 60 موظفاً في OpenAI رسالة داخلية تدعم موقف Anthropic — بيان تضامن لافت أبرز كيف تجاوز النزاع الولاءات المؤسسية ومسّ مبادئ راسخة لدى الباحثين في الذكاء الاصطناعي.
تدخّلت مجموعة من أعضاء مجلس الشيوخ الأمريكي من الحزبين، داعيةً إلى عقد جلسات استماع حول الحدود المناسبة بين سلطة الحكومة على اقتناء الذكاء الاصطناعي وحقوق الشركات في الحفاظ على سياسات السلامة. أثار النزاع تساؤلات دستورية وتشريعية لم تُصمَّم أطر حوكمة الذكاء الاصطناعي القائمة للإجابة عنها.
أعلنت Anthropic أنها تُعدّ طعناً قانونياً، مستندة إلى القانون الفيدرالي 10 USC 3252 — الذي يحكم التزام الحكومة بالحفاظ على منافسة عادلة ومفتوحة في مشتريات الدفاع. الحجة: استخدام تصنيف خطر سلسلة التوريد لمعاقبة شركة تحافظ على سياسات السلامة، بدلاً من مخاوف أمنية حقيقية، يشكّل إساءة استخدام لعملية الاقتناء.
في مطلع مارس 2026، لم يتم التوصل إلى أي حل. الطعن القانوني وجلسات الاستماع في الكونغرس والتطبيق على مستوى الوكالات لحظر الاستخدام جميعها جارية في وقت متزامن.
التوتر الجوهري
يكمن في صميم النزاع سؤال جوهري: من يقرر ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه — الشركات التي تبنيه، أم الحكومات التي تقتنيه؟
يستند موقف Anthropic إلى عدة حجج:
- التوسع المسؤول: تلتزم سياسة التوسع المسؤول بتقييد القدرات التي قد تسبب أضراراً كارثية — هذه الالتزامات مقدّمة للجمهور وليس فقط للعملاء
- إرساء سابقة: إزالة قيود السلامة لصالح عميل حكومي واحد يخلق ضغطاً لا رجعة فيه للقيام بالمثل مع آخرين، بما فيهم حكومات أجنبية
- المخاطر التقنية: تحمل الأسلحة المستقلة وأنظمة المراقبة الجماعية المدعومة بنماذج الذكاء الاصطناعي الرائدة مخاطر لا يستطيع البحث الحالي في السلامة التخفيف منها بالكامل
يعكس موقف Pentagon منطقاً مختلفاً:
- أولوية الأمن القومي: تؤكد وكالات الدفاع أنها بحاجة إلى وصول غير مقيد لأفضل التقنيات المتاحة للحفاظ على التفوق الاستراتيجي
- سلطة الاستخدام المشروع: تعتبر الحكومة أن تقييد الاستخدام الحكومي المشروع لتقنية متاحة تجارياً يُرسي سابقة خطيرة لسيطرة الشركات على أدوات الأمن القومي
- الضغط التنافسي: لا تواجه دول أخرى — لا سيما الصين وروسيا — أي قيود مؤسسية مماثلة على تطوير الذكاء الاصطناعي العسكري، مما يخلق فجوة قدرات محتملة
تداعيات على الصناعة
بالنسبة لشركات الذكاء الاصطناعي
يواجه كل مختبر رئيسي للذكاء الاصطناعي الآن سؤال أين يضع الحدّ بشأن العقود الحكومية والعسكرية. تُثبت سابقة Anthropic أن الحفاظ على سياسات أخلاقية صارمة يترتب عليه تكاليف تجارية وتنظيمية حقيقية — تصل إلى الإقصاء من السوق الفيدرالي بأكمله. في المقابل، يشير الـ 60+ موظفاً من OpenAI الذين وقّعوا دعماً إلى أن التنازل عن السلامة قد يُفضي إلى مشاكل داخلية في استبقاء الكفاءات.
بالنسبة للمشتريات الحكومية
سيتطلب اقتناء الذكاء الاصطناعي بشكل متزايد التعامل مع السياسات الأخلاقية للشركات إلى جانب المتطلبات التقنية والأمنية التقليدية. تصنيف خطر سلسلة التوريد — المصمم أصلاً لتهديدات أمنية حقيقية كالأجهزة الأجنبية المخترقة — يُختبر كأداة في نزاعات السياسات، مما يطرح تساؤلات حول نطاقه المناسب.
بالنسبة للمنافسة الدولية
إذا قيّدت شركات الذكاء الاصطناعي الأمريكية التطبيقات العسكرية بينما لا يفعل المنافسون الأجانب ذلك، فإن فجوة القدرات الناتجة تصبح في حد ذاتها حجة أمن قومي. تخلق هذه الديناميكية ضغطاً على صانعي السياسات إما لفرض الوصول، أو تطوير قدرات ذكاء اصطناعي حكومية (حجة “مشروع مانهاتن للذكاء الاصطناعي”)، أو إيجاد أطر تنظيمية توازن بين السلامة والوصول.
بالنسبة لحوكمة الذكاء الاصطناعي
يسلط الصدام الضوء على غياب أطر قانونية واضحة تحكم استخدام الذكاء الاصطناعي في السياقات الدفاعية. في غياب التوجيه التشريعي، تُحدَّد القواعد من خلال نزاعات تجارية عرضية وأوامر تنفيذية ولوائح اقتناء لم تُصمم أبداً لهذا الغرض — وليس من خلال المداولات الديمقراطية.
الصورة الأشمل
تمثّل حادثة Anthropic-Pentagon نقطة تحول. للمرة الأولى، تتعرض شركة ذكاء اصطناعي رائدة لعقوبات فعلية من حكومة كبرى بسبب حفاظها على سياسات السلامة. سواء أثبت موقف Anthropic قابليته للاستمرار — عبر انتصار قانوني أو تدخل الكونغرس أو بدائل سوقية — أو أصبح قصة تحذيرية عن حدود أخلاقيات الشركات في مواجهة سلطة الدولة، فإنه سيُحدّد على الأرجح علاقة صناعة الذكاء الاصطناعي بالحكومات لسنوات قادمة.
تُشير حزمة Pentagon للذكاء الاصطناعي البالغة 800 مليون دولار إلى أن الإنفاق العسكري على الذكاء الاصطناعي يتسارع بصرف النظر عن كيفية حل هذا النزاع بالذات. السؤال ليس ما إذا كان الذكاء الاصطناعي سيُستخدم في الدفاع، بل تحت أي قيود، وبأي رقابة، ومع سياسات سلامة من التي ستسود.
إعلان
🧭 رادار القرار
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — الجزائر ليست معنية مباشرة بمشتريات الذكاء الاصطناعي الدفاعية الأمريكية، لكن السابقة تؤثر على أطر حوكمة الذكاء الاصطناعي العالمية وعلاقات موردي الذكاء الاصطناعي والتزامات سلامة النماذج التي يعتمد عليها القطاع التقني الجزائري |
| البنية التحتية جاهزة؟ | غير منطبق — هذه مسألة حوكمة وسياسات وليست مسألة بنية تحتية تقنية |
| المهارات متوفّرة؟ | جزئياً — تمتلك الجزائر باحثين في الذكاء الاصطناعي وصانعي سياسات، لكن الخبرة المتخصصة في حوكمة الذكاء الاصطناعي لا تزال في طور التطوير. المجلس الوطني للذكاء الاصطناعي تحت إشراف البروفيسور Debbah يمثل أقرب قدرة مؤسسية |
| الجدول الزمني للعمل | مراقبة — متابعة كيفية حل النزاع؛ التداعيات على معايير أخلاقيات الذكاء الاصطناعي الدولية وسياسات الموردين ستتبلور خلال 6 إلى 12 شهراً |
| أصحاب المصلحة الرئيسيون | وزارة الاقتصاد الرقمي، باحثو الذكاء الاصطناعي، محللو سياسات الدفاع، متخصصو قانون التكنولوجيا، السلك الدبلوماسي، المجلس الوطني للذكاء الاصطناعي |
| نوع القرار | استراتيجي |
خلاصة سريعة: رغم أن هذا النزاع شأن أمريكي داخلي بالدرجة الأولى، إلا أنه يُرسي سوابق عالمية حول كيفية تفاوض شركات الذكاء الاصطناعي والحكومات على السيطرة على قدرات الذكاء الاصطناعي الرائدة. ينبغي لصانعي السياسات الجزائريين الذين يطوّرون الاستراتيجية الوطنية للذكاء الاصطناعي دراسة هذه الحالة كنموذج للتوترات التي سيواجهونها في نهاية المطاف بين مزوّدي الذكاء الاصطناعي التجاريين والمصالح السيادية — لا سيما مع توسيع الجزائر لبنيتها التحتية ومشترياتها في مجال الذكاء الاصطناعي.
المصادر والقراءات الإضافية
- AP News — “Anthropic clashes with the Pentagon over AI safety restrictions”
- The Guardian — “Anthropic stands firm on ethical stance despite Pentagon pressure”
- Reuters — “OpenAI details layered protections in U.S. Defense Department pact”
- Anthropic — Responsible Scaling Policy v3.0
- Palantir — AI in Defense Operations
- U.S. Senate Armed Services Committee — إعلان جلسة استماع حول مشتريات الذكاء الاصطناعي





إعلان