في 20 يناير 2025، وبعد ساعات قليلة من توليه منصبه للمرة الثانية، وقّع الرئيس Donald Trump أحد أهم أوامره التنفيذية في مجال التكنولوجيا: إلغاء إطار سلامة الذكاء الاصطناعي (AI) الذي وضعه Joe Biden، والمعروف بالأمر التنفيذي 14110. بجرة قلم واحدة، اختفت أشمل سياسة حكومية أمريكية للذكاء الاصطناعي في التاريخ — بمتطلباتها لاختبارات السلامة، واعتبارات العدالة، وحماية العمال.
ما حلّ محلها يعكس فلسفة مختلفة جذرياً في حوكمة الذكاء الاصطناعي: فلسفة تتمحور حول الهيمنة التنافسية الأمريكية، وتقليل الاحتكاك التنظيمي، والتموضع الدولي العدواني في مواجهة الصين. أصبح فهم إطار سياسة Trump للذكاء الاصطناعي ضرورياً لكل من يبني أو ينشر أو يستثمر في تكنولوجيا الذكاء الاصطناعي حول العالم.
إرث Biden: ما الذي أُزيل
كان الأمر التنفيذي 14110 الذي وقّعه Biden في 30 أكتوبر 2023 أكثر محاولة طموحة من الحكومة الأمريكية لتشكيل تطوير الذكاء الاصطناعي:
- اشترط على مطوري أقوى نماذج الذكاء الاصطناعي مشاركة نتائج اختبارات السلامة مع الحكومة قبل الإصدار العام
- أنشأ معايير لوضع علامات مائية على المحتوى المُنتَج بالذكاء الاصطناعي لتحديد هويته
- وجّه الوكالات لحماية العمال من فقدان الوظائف المرتبط بالذكاء الاصطناعي
- اشترط على الوكالات تعزيز العدالة والحقوق المدنية في تطبيقات الذكاء الاصطناعي
- وضع إرشادات لتقنيات حماية الخصوصية في تدريب الذكاء الاصطناعي
- دعا إلى تطوير معايير دولية لسلامة الذكاء الاصطناعي من خلال قنوات ثنائية ومتعددة الأطراف
انتقد المحافظون هذا الأمر باعتباره تجاوزاً تنظيمياً يبطئ الابتكار الأمريكي مقارنة بالصين. وانتقده التقدميون باعتباره غير كافٍ — كل حوافز ولا عقوبات، بدون آليات إنفاذ ملزمة. أنهى Trump الجدل بإلغاء الإطار بالكامل.
الأمر التنفيذي الأول: “إزالة العوائق أمام الريادة الأمريكية في الذكاء الاصطناعي” — 23 يناير 2025
حدد أول أمر تنفيذي لـ Trump في مجال الذكاء الاصطناعي النبرة الفلسفية لنهج الإدارة.
الأحكام الرئيسية
الإلغاء: ألغى الأمر صراحةً الأمر التنفيذي 14110 الذي أصدره Biden ووجّه جميع الوكالات لتحديد وإزالة أي لوائح أو سياسات أو توجيهات ناتجة عنه.
إطار “أمريكا أولاً”: ينص الأمر بوضوح على أن سياسة الولايات المتحدة هي “الحفاظ على الهيمنة الأمريكية العالمية في مجال الذكاء الاصطناعي وتعزيزها”. ليس السلامة. ليس العدالة. ولا حتى النمو الاقتصادي. الهيمنة.
أولوية الابتكار: وُجّهت الوكالات لمراجعة لوائحها بحثاً عن أي لوائح “تُثقل تطوير الذكاء الاصطناعي بشكل غير مبرر” واقتراح تعديلات خلال 180 يوماً.
تصدير المنظومة التكنولوجية: يوجّه الأمر الوكالات المعنية لتعزيز تصدير “المنظومة التكنولوجية الأمريكية للذكاء الاصطناعي” — الأجهزة والبرمجيات والخدمات — كأداة جيوسياسية للحفاظ على النفوذ الأمريكي عالمياً.
رفض خطاب السلامة: تخلى الأمر صراحةً عن لغة “المخاطر” و”السلامة” التي ميّزت نهج Biden، واستبدلها بلغة “الفرص” و”الريادة”.
ما تغيّر فوراً
- تحولت مهمة معهد سلامة الذكاء الاصطناعي (AI Safety Institute) بعيداً عن التقييمات الإلزامية للسلامة نحو التعاون الطوعي مع القطاع الصناعي
- يبقى إطار إدارة مخاطر الذكاء الاصطناعي الخاص بـ NIST قائماً، لكن وضعه كمرجع للامتثال أصبح استشارياً أكثر
- أُلغيت متطلبات أخلاقيات الذكاء الاصطناعي على مستوى الوكالات
- أُلغي شرط اختبار سلامة النماذج القوية قبل إصدارها للعموم
الأمر التنفيذي الثاني: “ضمان إطار سياسة وطنية للذكاء الاصطناعي” — 11 ديسمبر 2025
بحلول ديسمبر 2025، أصبح واضحاً أن تهديداً أكبر لسياسة أمريكية متماسكة للذكاء الاصطناعي كان يتشكل: خليط من التشريعات على مستوى الولايات يهدد بخلق كوابيس امتثال للشركات العاملة على المستوى الوطني.
بنهاية 2025، كانت أكثر من 15 ولاية أمريكية قد سنّت أو تعمل على تشريعات خاصة بالذكاء الاصطناعي — قانون California SB 1047 (رغم سحبه لاحقاً)، وقانون الذكاء الاصطناعي في Colorado، ومقترحات تنظيم الذكاء الاصطناعي في Texas، وغيرها. استهدف الأمر التنفيذي الثاني لإدارة Trump هذا التشرذم مباشرة.
الأحكام الأساسية
الأولوية الفيدرالية: يعلن الأمر أن سياسة الولايات المتحدة هي الحفاظ على “إطار سياسة وطنية بأقل عبء ممكن” للذكاء الاصطناعي — مما يشير إلى نية استباق تشريعات الولايات التي تُعتبر مفرطة.
تقييم وزارة التجارة: يُوجَّه وزير التجارة لنشر تقييم خلال 90 يوماً يحدد قوانين الذكاء الاصطناعي على مستوى الولايات التي تُعدّ “مرهقة” أو تتعارض مع السياسة الوطنية للذكاء الاصطناعي. القوانين التي:
- تتطلب من نماذج الذكاء الاصطناعي تغيير مخرجاتها الصادقة
- تفرض إفصاحات مفرطة تضر بالتنافسية الأمريكية
- تفرض متطلبات تتعارض مع الحمايات الدستورية
آلية الضغط المالي: تصبح الولايات التي يُحدَّد أن لديها قوانين ذكاء اصطناعي مرهقة غير مؤهلة لبعض التمويل الفيدرالي للنطاق العريض (أموال برنامج BEAD). هذه هي العصا وراء تهديد الأولوية الفيدرالية.
السيادة الفيدرالية: يشير الأمر إلى أن السياسة الفيدرالية للذكاء الاصطناعي — وهي سياسة إلغاء القيود — ستتقدم على محاولات الولايات لفرض رقابة أكثر صرامة على الذكاء الاصطناعي.
الأسئلة الدستورية
شكّك عدد من علماء القانون فوراً في ما إذا كان نهج الأولوية الفيدرالية الوارد في الأمر سيصمد أمام الطعن الدستوري. تاريخياً، تتمتع الولايات بسلطة كبيرة على حماية المستهلك وقانون العمل والحقوق المدنية — وهي المجالات التي تتأثر بشكل مباشر بالذكاء الاصطناعي. تواجه استراتيجية الأولوية الفيدرالية القائمة على صلاحية التجارة حالة من عدم اليقين الحقيقي أمام المحاكم.
خطة عمل الذكاء الاصطناعي: الاستراتيجية الأمريكية الشاملة للذكاء الاصطناعي
إلى جانب الأوامر التنفيذية، أصدرت إدارة Trump خطة عمل أمريكية رسمية للذكاء الاصطناعي — وثيقة استراتيجية شاملة تنسّق سياسة الذكاء الاصطناعي عبر الحكومة. ركائزها الأساسية:
1. الابتكار والتنافسية
- إزالة العوائق أمام تطوير الذكاء الاصطناعي التجاري
- تبسيط المشتريات الفيدرالية للذكاء الاصطناعي
- تعزيز وصول شركات الذكاء الاصطناعي الأمريكية إلى الأسواق العالمية
- تطوير البنية التحتية المحلية للذكاء الاصطناعي (مراكز البيانات، القدرة الحاسوبية، الطاقة)
2. الأمن القومي
- دمج الذكاء الاصطناعي في العمليات العسكرية والاستخباراتية
- حماية البنية التحتية الحيوية للذكاء الاصطناعي من الخصوم الأجانب
- مواجهة نفوذ الذكاء الاصطناعي الصيني في الأسواق الناشئة
- الحفاظ على ضوابط التصدير الأمريكية على رقائق الذكاء الاصطناعي المتقدمة (تبقى قيود تصدير Nvidia أداة رئيسية)
3. التموضع الدولي
- مواجهة نفوذ الصين في هيئات المعايير الدولية (IEEE، ISO، ITU)
- بناء شراكات في مجال الذكاء الاصطناعي مع الحلفاء (المملكة المتحدة، اليابان، كوريا الجنوبية، أستراليا، الهند، دول الخليج)
- تعزيز اعتماد “المنظومة التكنولوجية الأمريكية للذكاء الاصطناعي” في الدول الشريكة
- توقيع اتفاقيات تكنولوجية ثنائية تركز على الذكاء الاصطناعي
4. اعتماد الحكومة للذكاء الاصطناعي
- استخدام الذكاء الاصطناعي لتحسين كفاءة الحكومة الفيدرالية (مرتبط بشكل وثيق بمبادرات DOGE)
- نشر الذكاء الاصطناعي في الوكالات الفيدرالية لكشف الاحتيال وتقديم الخدمات والإدارة
- شراكة GSA مع Llama من Meta للنشر الحكومي الشامل للذكاء الاصطناعي
عامل DOGE: الذكاء الاصطناعي يلتقي بكفاءة الحكومة
كان أحد أكثر التطورات دراماتيكية في 2025 هو تقاطع سياسة الذكاء الاصطناعي مع وزارة كفاءة الحكومة (DOGE)، المبادرة التي يقودها Elon Musk والتي استخدمت أنظمة الذكاء الاصطناعي لتحليل الإنفاق الفيدرالي وتحديد التكرار وتسريع قرارات الموظفين.
نشرت DOGE أدوات ذكاء اصطناعي من أجل:
- تحليل العقود الفيدرالية وأنماط الإنفاق على نطاق واسع
- تحديد الموظفين المحتمل تسريحهم
- مراجعة مخرجات الوكالات التنظيمية بهدف إلغائها
- أتمتة سير عمل الاتصالات والمعالجة
مثّل هذا أكثر نشر دراماتيكي للذكاء الاصطناعي في صنع القرار الحكومي في تاريخ الولايات المتحدة — وأثار أسئلة قانونية جوهرية حول الإجراءات القانونية الواجبة والدقة والمساءلة عندما تؤثر أنظمة الذكاء الاصطناعي على وظائف الموظفين الفيدراليين.
إعلان
حرب تصدير الرقائق: سياسة الذكاء الاصطناعي من خلال ضوابط التجارة
في حين تُشكّل الأوامر التنفيذية حوكمة الذكاء الاصطناعي المحلية، تمثل ضوابط تصدير أشباه الموصلات المتقدمة السياسة الخارجية الأمريكية للذكاء الاصطناعي في أكثر أشكالها ملموسية.
حُوفظ على قيود تصدير الرقائق من عهد Biden — التي تحد من تصدير Nvidia H100 وA100 إلى الصين — بل عُزّزت في بعض الجوانب في عهد Trump. تستند هذه الضوابط إلى الحساب الاستراتيجي بأن تفوق الولايات المتحدة في الذكاء الاصطناعي يعتمد جزئياً على حرمان الصين من الوصول إلى أكثر أجهزة التدريب تقدماً.
نتائج هذه القيود:
- أبطأت بشكل كبير قدرة الصين على تدريب أكبر النماذج الحدودية
- خلقت ضغطاً هائلاً على الشركات الصينية لتطوير بدائل محلية (رقائق Huawei Ascend)
- دفعت بعض الحوسبة إلى دول ثالثة كحلول بديلة
- ولّدت احتكاكاً مع حلفاء الولايات المتحدة الذين يصدرون رقائق مقيدة إلى أسواق مقيدة
أظهر عرض DeepSeek في يناير 2025 أن ذكاءً اصطناعياً عالي القدرة يمكن تدريبه بعدد أقل من الرقائق (وعلى أجهزة أقدم)، مما طعن في الفرضية الأساسية لهذه الاستراتيجية — رغم أن المسؤولين الأمريكيين يؤكدون أن القيود لا تزال مهمة لأكثر مشاريع الذكاء الاصطناعي طموحاً.
المقارنة مع Biden
| مجال السياسة | نهج Biden | نهج Trump |
|---|---|---|
| اختبار السلامة | إبلاغ إلزامي للنماذج القوية | تعاون طوعي مع القطاع الصناعي |
| العدالة/الحقوق المدنية | متطلبات صريحة للعدالة في الذكاء الاصطناعي | أُزيلت |
| حماية العمال | معالجة تأثير الذكاء الاصطناعي على العمال | لم تُعالج |
| تشريعات الولايات | حد أدنى فيدرالي مع مرونة للولايات | أولوية فيدرالية تستبق قواعد الولايات الأكثر صرامة |
| السياسة الدولية | تعاون متعدد الأطراف يركز على السلامة | صفقات ثنائية تركز على التنافسية |
| سياسة الصين | ضوابط الرقائق + انخراط دبلوماسي | ضوابط الرقائق + منافسة حادة |
| الفلسفة التنظيمية | احتياط قائم على المخاطر | الابتكار أولاً، بأقل احتكاك |
| صوت حوكمة الذكاء الاصطناعي | OSTP، وزارة التجارة | OSTP، DOGE، مجلس الأمن القومي |
استجابة القطاع الصناعي: تصفيق في الغالب مع بعض القلق
رحّب قطاع التكنولوجيا بشكل عام بالاتجاه نحو إلغاء القيود، مع بعض الفروق الدقيقة:
دعم حماسي: رحّبت شركات الذكاء الاصطناعي الحدودية (OpenAI، Anthropic، Google، Meta) بإزالة متطلبات الإبلاغ عن السلامة قبل الإصدار والإشارات ضد الأعباء التنظيمية الجديدة.
مراقبة حذرة: يحتاج بائعو الذكاء الاصطناعي للمؤسسات الذين يبيعون للحكومة إلى وضوح بشأن قواعد المشتريات، وليس مجرد إلغاء القيود.
قلق: يشعر باحثو أخلاقيات الذكاء الاصطناعي ومنظمات المجتمع المدني والنقابات العمالية وبعض حكومات الولايات بالقلق من أن إزالة الحواجز الفيدرالية مع استباق قواعد الولايات يخلق فجوات حقيقية في السلامة والحقوق.
احتكاك دولي: أعرب الاتحاد الأوروبي والمملكة المتحدة وكندا عن مخاوفهم بشأن ابتعاد الولايات المتحدة عن التعددية التي تركز على السلامة، مما يعقّد التنسيق بشأن حوكمة الذكاء الاصطناعي الحدودي.
ماذا يعني هذا لتطوير الذكاء الاصطناعي العالمي
للتحول الأمريكي تداعيات عالمية:
- خطر السباق نحو القاع: إذا أشار أكبر اقتصاد للذكاء الاصطناعي إلى أن متطلبات السلامة اختيارية، فقد تقلل دول أخرى من أولويتها للبقاء تنافسية
- التباعد بين الاتحاد الأوروبي والولايات المتحدة: الفجوة المتسعة بين النهج الاحترازي للاتحاد الأوروبي ونهج الابتكار أولاً للولايات المتحدة تخلق تعقيداً حقيقياً في الامتثال للشركات متعددة الجنسيات
- تموضع الصين: الخطوة الأمريكية نحو إلغاء القيود تقوّض إلى حد ما سردية “القيم الديمقراطية” لحوكمة الذكاء الاصطناعي — مما يصعّب الحجة بأن البديل لنهج الصين هو بالضرورة أفضل لحقوق الإنسان
- تشرذم المعايير: مع سحب الولايات المتحدة والاتحاد الأوروبي في اتجاهات مختلفة في هيئات المعايير الدولية، يصبح التوافق على معايير حوكمة الذكاء الاصطناعي أصعب تحقيقاً
الخلاصة
تمثل أوامر Trump التنفيذية للذكاء الاصطناعي أهم انعكاس في سياسة التكنولوجيا الأمريكية منذ الأيام الأولى لتنظيم الإنترنت. من خلال إعطاء الأولوية للهيمنة التنافسية على السلامة الاحترازية، ومحاولة استباق الابتكار على مستوى الولايات في حوكمة الذكاء الاصطناعي، وضعت الإدارة رهاناً واضحاً: أن تطوير الذكاء الاصطناعي المتحرر من التنظيم سينتج نتائج أفضل من تطوير الذكاء الاصطناعي المُشكَّل بحواجز قائمة على الحقوق.
نتائج هذا الرهان — للتنافسية الأمريكية، ولسلامة الذكاء الاصطناعي، وللعمال المتأثرين بنشر الذكاء الاصطناعي، وللنظام البيئي للحوكمة العالمية — ستتكشف خلال العقد القادم.
ما هو واضح بالفعل: عصر التوافق بين الحزبين على سياسة الذكاء الاصطناعي قد انتهى. أصبحت حوكمة الذكاء الاصطناعي جبهة في الحرب الثقافية الأوسع حول دور الحكومة في التكنولوجيا والمجتمع.
إعلان
رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الأهمية بالنسبة للجزائر | عالية — تؤثر سياسة الذكاء الاصطناعي الأمريكية بشكل مباشر على الأدوات والمنصات وتوفر الرقائق التي تعتمد عليها المؤسسات والهيئات الحكومية الجزائرية. تؤثر ضوابط التصدير على وصول CERIST والمختبرات الجامعية للذكاء الاصطناعي إلى وحدات معالجة الرسومات (GPU). قد يؤثر الدفع الأمريكي لتصدير “منظومته التكنولوجية للذكاء الاصطناعي” إلى الدول الشريكة على قرارات الجزائر في مجال المشتريات التكنولوجية. |
| جاهزية البنية التحتية؟ | جزئية — تفتقر الجزائر إلى بنية تحتية محلية للحوسبة في مجال الذكاء الاصطناعي وتعتمد على أجهزة مستوردة خاضعة لمستويات التصدير الأمريكية. تستثمر اتصالات الجزائر وMobilis في سعة مراكز البيانات، لكن مجموعات GPU المتقدمة لتدريب الذكاء الاصطناعي تبقى بعيدة المنال عبر قنوات الاستيراد الحالية. |
| توفر المهارات؟ | جزئي — ينتج CERIST وESI (المدرسة الوطنية العليا للإعلام الآلي) وUSHTB باحثين في الذكاء الاصطناعي، لكن مسار المواهب ضيق مقارنة بوتيرة نشر الذكاء الاصطناعي عالمياً. أطلقت وزارة الاقتصاد الرقمي والمقاولات الناشئة برامج لتطوير المهارات، لكن جاهزية القوى العاملة لحوكمة الذكاء الاصطناعي والامتثال في المؤسسات لا تزال محدودة. |
| الجدول الزمني للعمل | 6-12 شهراً — يجب أن تأخذ استراتيجية الجزائر الناشئة للذكاء الاصطناعي (الجزائر الرقمية 2030) في الحسبان التباعد التنظيمي الأمريكي عن الاتحاد الأوروبي. تحتاج قرارات المشتريات لأنظمة الذكاء الاصطناعي الحكومية ونشر الذكاء الاصطناعي في الاتصالات (Djezzy، Ooredoo، Mobilis) إلى مراعاة الإطار التنظيمي الذي يتبعه مورّدوها. |
| أصحاب المصلحة الرئيسيون | وزارة الاقتصاد الرقمي والمقاولات الناشئة، وزارة الدفاع الوطني، ANSSI (الوكالة الوطنية للأمن السيبراني)، CERIST، قسم تكنولوجيا المعلومات في Sonatrach، Sonelgaz، اتصالات الجزائر، Djezzy، Mobilis، ESI، أقسام الذكاء الاصطناعي في USTHB |
| نوع القرار | استراتيجي — يفرض الانقسام التنظيمي بين الولايات المتحدة والاتحاد الأوروبي على الجزائر اختيار مسارات التوافق لمشتريات الذكاء الاصطناعي وحوكمة البيانات والشراكات الدولية. هذه ليست مسألة تكتيكية بل سؤال تموضع استراتيجي طويل المدى. |
خلاصة سريعة: يخلق التحول الأمريكي نحو إلغاء قيود الذكاء الاصطناعي مشهداً عالمياً منقسماً لا يمكن للجزائر تجاهله. مع تطوير الجزائر لاستراتيجيتها الخاصة في الذكاء الاصطناعي ضمن برنامج الجزائر الرقمية 2030، يتعين على صانعي السياسات في وزارة الاقتصاد الرقمي تحديد ما إذا كانوا سيوائمون معايير مشتريات وحوكمة الذكاء الاصطناعي مع النموذج الاحترازي الأوروبي أو نموذج الابتكار أولاً الأمريكي، أو يرسمون مساراً هجيناً. بالنسبة للمؤسسات الجزائرية مثل Sonatrach وSonelgaz التي تنشر الذكاء الاصطناعي في البنية التحتية الحيوية، فإن غياب تفويضات السلامة الأمريكية الواضحة يعني أن العناية الواجبة تجاه المورّدين تصبح أكثر أهمية — لا يمكن للمشترين الجزائريين الاعتماد على حدود تنظيمية أمريكية لم تعد موجودة.
المصادر والقراءات الإضافية
- Removing Barriers to American Leadership in Artificial Intelligence — White House
- Ensuring a National Policy Framework for Artificial Intelligence — White House
- Trump AI Executive Order, January 2025 — Federal Register
- Key Insights on Trump AI Executive Order — Squire Patton Boggs
- Trump AI Action Plan Analysis — Seyfarth Shaw
إعلان