تصنيف غير مسبوق

في ظهيرة يوم 27 فبراير 2026، أصدرت وزارة الدفاع الأمريكية تصنيفاً أرسل موجات صدمة عبر المؤسسة الدفاعية وصناعة الذكاء الاصطناعي على حد سواء. صنّف وزير الدفاع Pete Hegseth رسمياً شركة Anthropic، الشركة المتخصصة في سلامة الذكاء الاصطناعي ومقرها سان فرانسيسكو والمطوّرة لنموذج Claude، باعتبارها “خطراً على سلسلة التوريد للأمن القومي” — وهي المرة الأولى التي تطبّق فيها الولايات المتحدة هذا التصنيف على شركة أمريكية محلية.

أدى التصنيف إلى عواقب فورية وحادة. أُنهي عقد بقيمة 200 مليون دولار لقدرات الذكاء الاصطناعي على الشبكات السرية. أُبلغ المتعاقدون العسكريون والمتعاقدون من الباطن بأن استخدام منتجات وخدمات Anthropic في أي عمل مرتبط بالدفاع محظور. أعلن Hegseth القرار على منصة X (تويتر سابقاً)، مصرحاً بأن “موقف Anthropic غير متوافق جوهرياً مع المبادئ الأمريكية” وأن علاقتها مع القوات المسلحة الأمريكية والحكومة الفيدرالية “تغيرت بشكل دائم.”

تمحور المبرر المعلن حول رفض Anthropic منح البنتاغون استخداماً غير مقيد لنموذج Claude لـ “جميع الأغراض المشروعة.” تدور النزاع تحديداً حول قيدين رفضت Anthropic إسقاطهما: حظر استخدام Claude في استهداف الأسلحة المستقلة بالكامل، وحظر المراقبة الجماعية المحلية للمواطنين الأمريكيين. وفقاً لوزارة الدفاع، شكّلت هذه القيود عائقاً مادياً أمام مهمة الدفاع الوطني.

في غضون ساعات من الإعلان، كشفت OpenAI — المنافس الرئيسي لـ Anthropic — أنها أبرمت صفقتها الخاصة مع البنتاغون لخدمات الذكاء الاصطناعي على الشبكات السرية، في توقيت وصفه كثير من المراقبين بأنه منسّق بشكل لافت.

العقد الذي بدأ كل شيء

يعود النزاع إلى عقد مُنح لـ Anthropic في منتصف 2025 عبر مكتب الرقمنة والذكاء الاصطناعي التابع لوزارة الدفاع (CDAO). اتفاقية المعاملة الأخرى النموذجية ذات السنتين، بسقف 200 مليون دولار، جعلت Claude أول نموذج ذكاء اصطناعي متقدم يُعتمد للاستخدام على الشبكات السرية للبنتاغون. كجزء من الاتفاقية، وافق البنتاغون على الالتزام بسياسة الاستخدام المقبول لدى Anthropic.

سار النشر الأولي بسلاسة. كانت قدرات Claude في تحليل الوثائق والتلخيص وتحديد الأنماط مناسبة تماماً لتحليل الاستخبارات، وأفادت التقييمات المبكرة بمكاسب إنتاجية كبيرة لفرق المحللين. عالج النظام استخبارات المصادر المفتوحة والبرقيات الدبلوماسية وتقارير الاستخبارات التقنية، مُنتجاً ملخصات وإحالات متقاطعة كانت ستستغرق من المحللين البشريين أياماً لتجميعها.

بدأ الاحتكاك في يناير 2026 عندما وجّهت مذكرة استراتيجية الذكاء الاصطناعي الصادرة عن Hegseth بأن تتبنى جميع عقود الذكاء الاصطناعي بوزارة الدفاع صيغة “أي استخدام مشروع” الموحدة. طالب البنتاغون Anthropic بإعادة التفاوض على شروط عقدها، مصراً على السماح للجيش باستخدام Claude دون قيود. واجهت طلبات تطبيق النظام على تحليل جمع استخبارات الإشارات وتوصيات الاستهداف وتحليل أنماط حياة المراقبة رفضاً من أنظمة سلامة Claude.

من منظور وزارة الدفاع، كانت هذه الرفوض قيوداً غير مقبولة على أداة تُستخدم لأغراض أمن قومي مشروعة. من منظور Anthropic، عكست عمل ضمانات السلامة التي التزمت الشركة علناً بالحفاظ عليها — ضمانات كانت عنصراً جوهرياً في هويتها المؤسسية وشرطاً للثقة العامة.

خط الصدع الأخلاقي

يبلور النزاع بين البنتاغون وAnthropic توتراً يتصاعد منذ الأيام الأولى لأبحاث الذكاء الاصطناعي العسكري: من يملك السلطة لتحديد حدود ما يمكن وما لا يمكن لأنظمة الذكاء الاصطناعي فعله في سياق الأمن القومي؟

المنظور العسكري

من وجهة نظر وزارة الدفاع، الحجة مباشرة. تواجه الولايات المتحدة تهديدات حقيقية من خصوم يستثمرون بكثافة في قدرات الذكاء الاصطناعي العسكري دون القيود الأخلاقية التي تفرضها الشركات الغربية. برامج الذكاء الاصطناعي العسكري الصينية، على وجه الخصوص، تعمل دون قيود سلامة مماثلة. في هذا المشهد التنافسي، الشركات الأمريكية التي ترفض دعم التطبيقات الدفاعية تضع البلاد في وضع استراتيجي غير ملائم.

تضمن موقف البنتاغون أيضاً حجة قانونية محددة: القانون الفيدرالي يمنع بالفعل المراقبة الجماعية للأمريكيين، والسياسات العسكرية الداخلية تقيد بالفعل الأسلحة المستقلة بالكامل. جادل الجيش بأنه لا حاجة لتدوين هذه القيود بشكل منفصل في عقد مورد ذكاء اصطناعي، وأن إصرار Anthropic على ذلك يشكل تأكيداً غير مقبول للسلطة المؤسسية على العمليات العسكرية.

صاغ Hegseth الصراع بمصطلحات ثقافية أيضاً، مصرحاً في خطاب في يناير 2026 بأن البنتاغون “يتخلص من أي نماذج ذكاء اصطناعي لا تسمح لك بخوض الحروب” وأن أنظمة الذكاء الاصطناعي العسكرية ستعمل “دون قيود أيديولوجية تحد من التطبيقات العسكرية المشروعة.”

موقف Anthropic

التقى الرئيس التنفيذي لـ Anthropic، Dario Amodei، مباشرة مع Hegseth لكنه رفض التراجع عن خطي الشركة الأحمرين. في مقابلة مع CBS News، أوضح Amodei أن موقف Anthropic يستند إلى تقييم مبدئي: تقنية الذكاء الاصطناعي ليست موثوقة بما يكفي بعد لتشغيل الأسلحة بشكل مستقل، ولا يوجد إطار قانوني كافٍ حتى الآن لحوكمة المراقبة الجماعية المدعومة بالذكاء الاصطناعي.

جادلت الشركة بأن قيود السلامة لديها كانت علنية وموثقة ومعروفة لوزارة الدفاع قبل منح العقد. بعد الإعلان عن التصنيف، وصفته Anthropic بأنه “غير مسبوق” و”غير سليم قانونياً”، محذرةً من أنه “سيُرسي سابقة خطيرة لأي شركة أمريكية تتفاوض مع الحكومة.” تعهدت الشركة بالطعن في التصنيف أمام المحاكم.

عامل OpenAI

أضاف توقيت إعلان شراكة OpenAI مع البنتاغون — الذي كُشف عنه في غضون ساعات من تصنيف Anthropic — بُعداً تنافسياً لموقف كان بالفعل مشحوناً.

تطور نهج OpenAI تجاه التعامل العسكري بشكل كبير. حظر ميثاقها الأصلي التطبيقات العسكرية، لكن هذا القيد أُزيل بهدوء في يناير 2024. كانت The Intercept أول من أفاد بتغيير السياسة، مشيرة إلى أن OpenAI انتقلت من حظر الاستخدام لـ “تطوير الأسلحة” أو “الشؤون العسكرية والحربية” إلى حظر أوسع يقتصر على استخدام أدواتها لـ “إلحاق الأذى بنفسك أو بالآخرين.” سعت OpenAI لاحقاً للحصول على عقود دفاعية، متشاركة مع Anduril في أكتوبر 2024 لتطبيقات الذكاء الاصطناعي في ميدان المعركة.

ادعت صفقة OpenAI مع البنتاغون أنها تتضمن نفس القيدين اللذين ناضلت من أجلهما Anthropic — عدم المراقبة الجماعية المحلية وعدم الأسلحة المستقلة بالكامل — بينما وافقت في الوقت ذاته على معيار “أي استخدام مشروع” الذي رفضته Anthropic. لاحظ النقاد، بمن فيهم MIT Technology Review، أن هذا التناقض الظاهري يشير إلى أن قيود OpenAI قد تكون أقل قابلية للتنفيذ مما كانت عليه قيود Anthropic.

كانت ردة الفعل سريعة. اعترف الرئيس التنفيذي لـ OpenAI، Sam Altman، في 3 مارس بأن الشركة “ما كان ينبغي أن تتسرع” في صفقة البنتاغون، واصفاً التوقيت بأنه “بدا انتهازياً ومتهوراً.” أعلن عن تعديلات على العقد تضيف صياغة أوضح بشأن قيود المراقبة.

تحمل الديناميكية التنافسية تداعيات كبيرة. إذا أصبح تصنيف البنتاغون سابقة، فإنه يخلق حافزاً قوياً لشركات الذكاء الاصطناعي لتقليل قيود السلامة على التطبيقات العسكرية — أو لتطبيقها بطرق أقل وضوحاً وأقل عرضة لإثارة الرفض.

إعلان

الأسئلة القانونية والدستورية

يثير تصنيف خطر سلسلة التوريد عدة أسئلة قانونية ودستورية تتجه الآن إلى المحاكم.

جاء التصنيف بموجب صلاحيات مصمَّمة لمعالجة مخاطر سلسلة التوريد من الخصوم الأجانب — وتحديداً شركات التكنولوجيا الصينية. تطبيق هذه الصلاحيات على شركة أمريكية محلية يمثل توسيعاً جديداً وربما إشكالياً للسلطة التنفيذية. جادل محللون قانونيون في Lawfare بأن التصنيف “لن يصمد أمام أول احتكاك بالنظام القانوني”، بينما نشر Just Security تحليلاً مفصلاً لما يأذن وما لا يأذن به التصنيف قانونياً.

جادل الفريق القانوني لـ Anthropic بأن وزير الدفاع “لا يملك الصلاحية القانونية” لمنع أي جهة تتعامل مع الجيش من التعامل مع Anthropic، وأن القانون يمتد فقط إلى استخدام نماذج الذكاء الاصطناعي ضمن عقود وزارة الدفاع، وليس إلى كيفية استخدام المتعاقدين لـ Claude لخدمة عملاء آخرين.

اعتبارات التعديل الأول ذات صلة أيضاً. ضمانات سلامة Anthropic هي، في جوهرها، تعبير عن قيم الشركة حول كيفية استخدام الذكاء الاصطناعي. معاقبة شركة على تطبيق قيود على استخدام منتجاتها — وخاصة قيود تعكس اعتبارات أخلاقية وأمان — تثير تساؤلات حول الخطاب المُكرَه.

هدد Hegseth أيضاً باستدعاء قانون الإنتاج الدفاعي لإجبار Anthropic على توفير تقنيتها بغض النظر عن اعتراضات الشركة — وهو قانون استُدعي آخر مرة خلال جائحة COVID-19 للإمدادات الطبية. تساءل علماء القانون عما إذا كان يمكن تمديد هذا القانون ليشمل برمجيات الذكاء الاصطناعي.

الحجة المضادة هي أن التعاقد الدفاعي ليس حقاً، وللحكومة صلاحية واسعة في اختيار مورديها. بهذا المنطق، التصنيف قرار مشتريات وليس إجراءً عقابياً. حل هذه الأسئلة عبر التقاضي سيُرسي سوابق مهمة للعلاقة بين صناعة الذكاء الاصطناعي ومؤسسة الأمن القومي.

ارتدادات الصناعة

أرسل تصنيف Anthropic تموجات في أرجاء صناعة الذكاء الاصطناعي ومنظومة التعاقد الدفاعي.

بدأت عدة شركات ذكاء اصطناعي ذات طموحات دفاعية بمراجعة سياسات السلامة لديها لضمان عدم تسببها في تصنيفات مماثلة. يمتد القلق إلى ما هو أبعد من الشركات التي لديها ضمانات سلامة صريحة — أي منتج ذكاء اصطناعي يتضمن تصفية محتوى أو قيود حالات استخدام أو إرشادات أخلاقية يمكن أن يُوصف بأنه يحتوي على قيود تعيق التطبيقات الدفاعية.

أوقف المتعاقدون الدفاعيون الذين كانوا يقيّمون تقنية Anthropic تلك التقييمات فوراً. يخلق تصنيف خطر سلسلة التوريد مخاطر قانونية وتعاقدية لأي متعاقد دفاعي يواصل استخدام منتجات Anthropic — حتى للتطبيقات غير العسكرية داخل مؤسساتهم.

أولى مجتمع رأس المال الاستثماري اهتماماً خاصاً. كانت Anthropic قد أغلقت للتو جولة تمويل Series G بقيمة 30 مليار دولار بتقييم 380 مليار دولار في 12 فبراير 2026 — قبل أسبوعين فقط من التصنيف. الجولة، التي قادتها Coatue وصندوق الثروة السيادي السنغافوري GIC بمشاركة Microsoft وNvidia، عكست الثقة في نهج الشركة القائم على السلامة. أثار تصنيف البنتاغون تساؤلات فورية حول ما إذا كانت التزامات السلامة — التي اعتبرها المستثمرون عامل تميز — قد تصبح عبئاً.

نظّم تحالف من العاملين في التكنولوجيا رسالة مفتوحة لوزارة الدفاع والكونغرس تحث على سحب تصنيف خطر سلسلة التوريد، مجادلين بأنه يهدد منظومة سلامة الذكاء الاصطناعي بأكملها.

من يضع حدود الذكاء الاصطناعي العسكري؟

يطرح النزاع بين البنتاغون وAnthropic في نهاية المطاف سؤالاً لم تجب عليه المجتمعات الديمقراطية بعد: من يملك السلطة الشرعية لتحديد الحدود الأخلاقية لأنظمة الذكاء الاصطناعي العسكرية؟

إذا كان الجواب “الجيش نفسه”، فإن شركات الذكاء الاصطناعي تُختزل إلى موردين سلعيين لا دور لهم في تشكيل كيفية استخدام تقنيتهم. هذا النموذج متسق مع كيفية عمل صناعة الدفاع تقليدياً — مصنعو الأسلحة يُنتجون أسلحة وفق المواصفات العسكرية دون فرض قيودهم الخاصة على النشر — لكنه يمكن القول بأنه غير ملائم لأنظمة الذكاء الاصطناعي التي تختلف قدراتها ومخاطرها جوهرياً عن الأسلحة التقليدية.

إذا كان الجواب “شركات الذكاء الاصطناعي”، فإن مسؤولين تنفيذيين غير منتخبين يتخذون قرارات حول قدرات الأمن القومي دون مساءلة ديمقراطية. هذا النموذج يمنح سلطة هائلة لعدد صغير من شركات التكنولوجيا ومؤسسيها، الذين قد يملكون آراءً مبدئية لكنهم غير خاضعين للعمليات السياسية التي تحكم جوانب أخرى من سياسة الدفاع.

إذا كان الجواب “الكونغرس والعملية الديمقراطية”، فإن تشريعاً شاملاً مطلوب — تشريع لا وجود له حالياً. يوفر قانون الذكاء الاصطناعي الأوروبي (EU AI Act) إطاراً جزئياً، بحظره لتطبيقات ذكاء اصطناعي معينة ومتطلباته للرقابة البشرية في الأنظمة عالية المخاطر، لكن الولايات المتحدة ليس لديها تشريع مماثل يعالج التداعيات العسكرية للذكاء الاصطناعي.

الحل الأكثر ترجيحاً هو حل وسط فوضوي: معايير غير رسمية، ومفاوضات حالة بحالة، وقرارات سياسية مخصصة لا ترضي أحداً بالكامل لكنها تسمح للنظام بالعمل. هذا، في نواحٍ عديدة، أسوأ نتيجة — لا يوفر القدرة على التنبؤ التي تحتاجها الصناعة ولا المساءلة الديمقراطية التي يستحقها الجمهور.

السابقة

بصرف النظر عن كيفية حل النزاع المباشر، فقد أرسى تصنيف البنتاغون لـ Anthropic كخطر على سلسلة التوريد سابقة ذات تداعيات دائمة. يُظهر أن الحكومة الأمريكية مستعدة لاستخدام صلاحيات الأمن القومي للضغط على شركات الذكاء الاصطناعي التي تحتفظ بقيود سلامة غير متوافقة مع الأهداف العسكرية. يخلق ديناميكية تنافسية تحفّز الشركات على تقليل أو إخفاء التزاماتها بالسلامة. ويثير أسئلة جوهرية حول العلاقة بين سلامة الذكاء الاصطناعي والاستقلالية المؤسسية والحوكمة الديمقراطية.

لا تخفى المفارقة على المراقبين: شركة مهمتها بالكامل ضمان أن يكون الذكاء الاصطناعي آمناً للبشرية صُنّفت كخطر على الأمن القومي من قبل أقوى جيش في العالم. ما إذا كان هذا التصنيف يعكس قلقاً أمنياً مشروعاً أو خلطاً خطيراً بين السلامة والعرقلة قد يكون أهم سؤال في سياسة الذكاء الاصطناعي لعام 2026.

إعلان

🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الأهمية بالنسبة للجزائر متوسطة — ستتأثر استراتيجيات التحديث العسكري ومشتريات الذكاء الاصطناعي في الجزائر بكيفية تعامل كبار مزودي الذكاء الاصطناعي مع مطالب الحكومات؛ تؤثر السابقة على أي دولة تشتري ذكاءً اصطناعياً أمريكي المنشأ
جاهزية البنية التحتية؟ جزئية — لا تملك الجزائر نشر ذكاء اصطناعي سري مماثلاً للبنتاغون، لكن وزارة الدفاع الوطني أبدت اهتماماً بتحليل الاستخبارات المدعوم بالذكاء الاصطناعي
توفر المهارات؟ جزئية — مجموعة المواهب المتنامية في مجال الذكاء الاصطناعي بالجزائر (جامعات الجزائر العاصمة ووهران وقسنطينة) يمكن أن تدعم تقييم الذكاء الاصطناعي الدفاعي، لكنها تفتقر إلى خبرة عميقة في أُطر حوكمة الذكاء الاصطناعي العسكري
الجدول الزمني للعمل 12-24 شهراً — مراقبة كيف يُعيد الطعن القانوني واستجابة الصناعة تشكيل سياسات مزودي الذكاء الاصطناعي للعقود الحكومية عالمياً
أصحاب المصلحة الرئيسيون وزارة الدفاع الوطني، المديرية العامة للبحث العلمي والتطوير التكنولوجي (DGRSDT)، شركات الذكاء الاصطناعي الناشئة الجزائرية التي تفكر في العقود الحكومية، فرق CERT-DZ للأمن السيبراني
نوع القرار استراتيجي / تعليمي — فهم هذه السابقة ضروري لأي مشتريات حكومية مستقبلية للذكاء الاصطناعي في الجزائر

خلاصة سريعة: يشير صدام البنتاغون وAnthropic إلى أن الحكومات في جميع أنحاء العالم قد تضغط على مزودي الذكاء الاصطناعي لإزالة قيود السلامة للاستخدام العسكري. يجب على الجزائر مراقبة هذه السابقة عن كثب أثناء تطوير أُطر مشتريات الذكاء الاصطناعي الخاصة بها، مع ضمان أن أي عقود ذكاء اصطناعي دفاعية تتضمن شروطاً مُتفاوضاً عليها بوضوح حول الاستخدام المقبول — مستفيدة من الغموض الذي أجّج هذا النزاع.

المصادر والقراءات الإضافية