⚡ أبرز النقاط

ألغى Trump إطار سلامة الذكاء الاصطناعي الذي وضعه Biden في يومه الأول، مستبدلاً اختبارات السلامة الإلزامية باستراتيجية إلغاء القيود التنظيمية التي تعطي الأولوية لهيمنة أمريكا التنافسية. أمر تنفيذي ثانٍ يستهدف تنظيمات الولايات بأولوية فدرالية مع تهديد بقطع تمويل النطاق العريض عن الولايات ذات القوانين المقيدة. التباعد التنظيمي بين الولايات المتحدة والاتحاد الأوروبي يتوسع مما يفرض على الشركات والدول الشريكة التنقل بين نموذجين مختلفين جذرياً لحوكمة الذكاء الاصطناعي.

خلاصة: ادمجوا الانقسام التنظيمي الأمريكي-الأوروبي في قرارات شراء الذكاء الاصطناعي الآن — العناية الواجبة بالموردين أصبحت حاسمة في غياب حدود تنظيمية أمريكية دنيا.

اقرأ التحليل الكامل ↓

إعلان

🧭 رادار القرار (المنظور الجزائري)

الأهمية بالنسبة للجزائرعالية
تؤثر سياسة الذكاء الاصطناعي الأمريكية بشكل مباشر على الأدوات والمنصات وتوفر الرقائق التي تعتمد عليها المؤسسات والهيئات الحكومية الجزائرية. تؤثر ضوابط التصدير على وصول CERIST والمختبرات الجامعية للذكاء الاصطناعي إلى وحدات معالجة الرسومات (GPU). قد يؤثر الدفع الأمريكي لتصدير "منظومته التكنولوجية للذكاء الاصطناعي" إلى الدول الشريكة على قرارات الجزائر في مجال المشتريات التكنولوجية.
البنية التحتية جاهزة؟جزئية
تفتقر الجزائر إلى بنية تحتية محلية للحوسبة في مجال الذكاء الاصطناعي وتعتمد على أجهزة مستوردة خاضعة لمستويات التصدير الأمريكية. تستثمر اتصالات الجزائر وMobilis في سعة مراكز البيانات، لكن مجموعات GPU المتقدمة لتدريب الذكاء الاصطناعي تبقى بعيدة المنال عبر قنوات الاستيراد الحالية.
المهارات متوفرة؟جزئي
ينتج CERIST وESI (المدرسة الوطنية العليا للإعلام الآلي) وUSHTB باحثين في الذكاء الاصطناعي، لكن مسار المواهب ضيق مقارنة بوتيرة نشر الذكاء الاصطناعي عالمياً. أطلقت وزارة الاقتصاد الرقمي والمقاولات الناشئة برامج لتطوير المهارات، لكن جاهزية القوى العاملة لحوكمة الذكاء الاصطناعي والامتثال في المؤسسات لا تزال محدودة.
الجدول الزمني للعمل6-12 شهراً
يجب أن تأخذ استراتيجية الجزائر الناشئة للذكاء الاصطناعي (الجزائر الرقمية 2030) في الحسبان التباعد التنظيمي الأمريكي عن الاتحاد الأوروبي. تحتاج قرارات المشتريات لأنظمة الذكاء الاصطناعي الحكومية ونشر الذكاء الاصطناعي في الاتصالات (Djezzy، Ooredoo، Mobilis) إلى مراعاة الإطار التنظيمي الذي يتبعه مورّدوها.
أصحاب المصلحة الرئيسيونوزارة الاقتصاد الرقمي والمقاولات الناشئة، وزارة الدفاع الوطني، ANSSI (الوكالة الوطنية للأمن السيبراني)، CERIST، قسم تكنولوجيا المعلومات في Sonatrach، Sonelgaz، اتصالات الجزائر، Djezzy، Mobilis، ESI، أقسام الذكاء الاصطناعي في USTHB
نوع القراراستراتيجي
يفرض الانقسام التنظيمي بين الولايات المتحدة والاتحاد الأوروبي على الجزائر اختيار مسارات التوافق لمشتريات الذكاء الاصطناعي وحوكمة البيانات والشراكات الدولية. هذه ليست مسألة تكتيكية بل سؤال تموضع استراتيجي طويل المدى.

خلاصة سريعة: يجب على استراتيجية الجزائر الرقمية 2030 وإطار حوكمة الذكاء الاصطناعي الناشئ التعامل مع عالم تباعدت فيه الولايات المتحدة والاتحاد الأوروبي بشكل حاد بشأن تنظيم الذكاء الاصطناعي. ينبغي لوزارة الاقتصاد الرقمي والمؤسسات الناشئة دراسة النموذجين مع الميل نحو النهج القائم على المخاطر في قانون الذكاء الاصطناعي الأوروبي — فاستراتيجية SNTN-2030 الجزائرية تؤكد بالفعل على مبادئ حماية المواطن التي تتوافق بشكل طبيعي مع المعايير الاحترازية الأوروبية أكثر من التوجه الأمريكي نحو تخفيف التنظيم.

في 20 يناير 2025، وبعد ساعات قليلة من توليه منصبه للمرة الثانية، وقّع الرئيس Donald Trump أحد أهم أوامره التنفيذية في مجال التكنولوجيا: إلغاء إطار سلامة الذكاء الاصطناعي (AI) الذي وضعه Joe Biden، والمعروف بالأمر التنفيذي 14110. بجرة قلم واحدة، اختفت أشمل سياسة حكومية أمريكية للذكاء الاصطناعي في التاريخ — بمتطلباتها لاختبارات السلامة، واعتبارات العدالة، وحماية العمال.

ما حلّ محلها يعكس فلسفة مختلفة جذرياً في حوكمة الذكاء الاصطناعي: فلسفة تتمحور حول الهيمنة التنافسية الأمريكية، وتقليل الاحتكاك التنظيمي، والتموضع الدولي العدواني في مواجهة الصين. أصبح فهم إطار سياسة Trump للذكاء الاصطناعي ضرورياً لكل من يبني أو ينشر أو يستثمر في تكنولوجيا الذكاء الاصطناعي حول العالم.

إرث Biden: ما الذي أُزيل

كان الأمر التنفيذي 14110 الذي وقّعه Biden في 30 أكتوبر 2023 أكثر محاولة طموحة من الحكومة الأمريكية لتشكيل تطوير الذكاء الاصطناعي:

  • اشترط على مطوري أقوى نماذج الذكاء الاصطناعي مشاركة نتائج اختبارات السلامة مع الحكومة قبل الإصدار العام
  • أنشأ معايير لوضع علامات مائية على المحتوى المُنتَج بالذكاء الاصطناعي لتحديد هويته
  • وجّه الوكالات لحماية العمال من فقدان الوظائف المرتبط بالذكاء الاصطناعي
  • اشترط على الوكالات تعزيز العدالة والحقوق المدنية في تطبيقات الذكاء الاصطناعي
  • وضع إرشادات لتقنيات حماية الخصوصية في تدريب الذكاء الاصطناعي
  • دعا إلى تطوير معايير دولية لسلامة الذكاء الاصطناعي من خلال قنوات ثنائية ومتعددة الأطراف

انتقد المحافظون هذا الأمر باعتباره تجاوزاً تنظيمياً يبطئ الابتكار الأمريكي مقارنة بالصين. وانتقده التقدميون باعتباره غير كافٍ — كل حوافز ولا عقوبات، بدون آليات إنفاذ ملزمة. أنهى Trump الجدل بإلغاء الإطار بالكامل.

الأمر التنفيذي الأول: “إزالة العوائق أمام الريادة الأمريكية في الذكاء الاصطناعي” — 23 يناير 2025

حدد أول أمر تنفيذي لـ Trump في مجال الذكاء الاصطناعي النبرة الفلسفية لنهج الإدارة.

الأحكام الرئيسية

الإلغاء: ألغى الأمر صراحةً الأمر التنفيذي 14110 الذي أصدره Biden ووجّه جميع الوكالات لتحديد وإزالة أي لوائح أو سياسات أو توجيهات ناتجة عنه.

إطار “أمريكا أولاً”: ينص الأمر بوضوح على أن سياسة الولايات المتحدة هي “الحفاظ على الهيمنة الأمريكية العالمية في مجال الذكاء الاصطناعي وتعزيزها”. ليس السلامة. ليس العدالة. ولا حتى النمو الاقتصادي. الهيمنة.

أولوية الابتكار: وُجّهت الوكالات لمراجعة لوائحها بحثاً عن أي لوائح “تُثقل تطوير الذكاء الاصطناعي بشكل غير مبرر” واقتراح تعديلات خلال 180 يوماً.

تصدير المنظومة التكنولوجية: يوجّه الأمر الوكالات المعنية لتعزيز تصدير “المنظومة التكنولوجية الأمريكية للذكاء الاصطناعي” — الأجهزة والبرمجيات والخدمات — كأداة جيوسياسية للحفاظ على النفوذ الأمريكي عالمياً.

رفض خطاب السلامة: تخلى الأمر صراحةً عن لغة “المخاطر” و”السلامة” التي ميّزت نهج Biden، واستبدلها بلغة “الفرص” و”الريادة”.

ما تغيّر فوراً

  • تحولت مهمة معهد سلامة الذكاء الاصطناعي (AI Safety Institute) بعيداً عن التقييمات الإلزامية للسلامة نحو التعاون الطوعي مع القطاع الصناعي
  • يبقى إطار إدارة مخاطر الذكاء الاصطناعي الخاص بـ NIST قائماً، لكن وضعه كمرجع للامتثال أصبح استشارياً أكثر
  • أُلغيت متطلبات أخلاقيات الذكاء الاصطناعي على مستوى الوكالات
  • أُلغي شرط اختبار سلامة النماذج القوية قبل إصدارها للعموم

الأمر التنفيذي الثاني: “ضمان إطار سياسة وطنية للذكاء الاصطناعي” — 11 ديسمبر 2025

بحلول ديسمبر 2025، أصبح واضحاً أن تهديداً أكبر لسياسة أمريكية متماسكة للذكاء الاصطناعي كان يتشكل: خليط من التشريعات على مستوى الولايات يهدد بخلق كوابيس امتثال للشركات العاملة على المستوى الوطني.

بنهاية 2025، كانت أكثر من 15 ولاية أمريكية قد سنّت أو تعمل على تشريعات خاصة بالذكاء الاصطناعي — قانون California SB 1047 (رغم سحبه لاحقاً)، وقانون الذكاء الاصطناعي في Colorado، ومقترحات تنظيم الذكاء الاصطناعي في Texas، وغيرها. استهدف الأمر التنفيذي الثاني لإدارة Trump هذا التشرذم مباشرة.

الأحكام الأساسية

الأولوية الفيدرالية: يعلن الأمر أن سياسة الولايات المتحدة هي الحفاظ على “إطار سياسة وطنية بأقل عبء ممكن” للذكاء الاصطناعي — مما يشير إلى نية استباق تشريعات الولايات التي تُعتبر مفرطة.

تقييم وزارة التجارة: يُوجَّه وزير التجارة لنشر تقييم خلال 90 يوماً يحدد قوانين الذكاء الاصطناعي على مستوى الولايات التي تُعدّ “مرهقة” أو تتعارض مع السياسة الوطنية للذكاء الاصطناعي. القوانين التي:

  • تتطلب من نماذج الذكاء الاصطناعي تغيير مخرجاتها الصادقة
  • تفرض إفصاحات مفرطة تضر بالتنافسية الأمريكية
  • تفرض متطلبات تتعارض مع الحمايات الدستورية

آلية الضغط المالي: تصبح الولايات التي يُحدَّد أن لديها قوانين ذكاء اصطناعي مرهقة غير مؤهلة لبعض التمويل الفيدرالي للنطاق العريض (أموال برنامج BEAD). هذه هي العصا وراء تهديد الأولوية الفيدرالية.

السيادة الفيدرالية: يشير الأمر إلى أن السياسة الفيدرالية للذكاء الاصطناعي — وهي سياسة إلغاء القيود — ستتقدم على محاولات الولايات لفرض رقابة أكثر صرامة على الذكاء الاصطناعي.

الأسئلة الدستورية

شكّك عدد من علماء القانون فوراً في ما إذا كان نهج الأولوية الفيدرالية الوارد في الأمر سيصمد أمام الطعن الدستوري. تاريخياً، تتمتع الولايات بسلطة كبيرة على حماية المستهلك وقانون العمل والحقوق المدنية — وهي المجالات التي تتأثر بشكل مباشر بالذكاء الاصطناعي. تواجه استراتيجية الأولوية الفيدرالية القائمة على صلاحية التجارة حالة من عدم اليقين الحقيقي أمام المحاكم.

خطة عمل الذكاء الاصطناعي: الاستراتيجية الأمريكية الشاملة للذكاء الاصطناعي

إلى جانب الأوامر التنفيذية، أصدرت إدارة Trump خطة عمل أمريكية رسمية للذكاء الاصطناعي — وثيقة استراتيجية شاملة تنسّق سياسة الذكاء الاصطناعي عبر الحكومة. ركائزها الأساسية:

1. الابتكار والتنافسية

  • إزالة العوائق أمام تطوير الذكاء الاصطناعي التجاري
  • تبسيط المشتريات الفيدرالية للذكاء الاصطناعي
  • تعزيز وصول شركات الذكاء الاصطناعي الأمريكية إلى الأسواق العالمية
  • تطوير البنية التحتية المحلية للذكاء الاصطناعي (مراكز البيانات، القدرة الحاسوبية، الطاقة)

2. الأمن القومي

  • دمج الذكاء الاصطناعي في العمليات العسكرية والاستخباراتية
  • حماية البنية التحتية الحيوية للذكاء الاصطناعي من الخصوم الأجانب
  • مواجهة نفوذ الذكاء الاصطناعي الصيني في الأسواق الناشئة
  • الحفاظ على ضوابط التصدير الأمريكية على رقائق الذكاء الاصطناعي المتقدمة (تبقى قيود تصدير Nvidia أداة رئيسية)

3. التموضع الدولي

  • مواجهة نفوذ الصين في هيئات المعايير الدولية (IEEE، ISO، ITU)
  • بناء شراكات في مجال الذكاء الاصطناعي مع الحلفاء (المملكة المتحدة، اليابان، كوريا الجنوبية، أستراليا، الهند، دول الخليج)
  • تعزيز اعتماد “المنظومة التكنولوجية الأمريكية للذكاء الاصطناعي” في الدول الشريكة
  • توقيع اتفاقيات تكنولوجية ثنائية تركز على الذكاء الاصطناعي

4. اعتماد الحكومة للذكاء الاصطناعي

  • استخدام الذكاء الاصطناعي لتحسين كفاءة الحكومة الفيدرالية (مرتبط بشكل وثيق بمبادرات DOGE)
  • نشر الذكاء الاصطناعي في الوكالات الفيدرالية لكشف الاحتيال وتقديم الخدمات والإدارة
  • شراكة GSA مع Llama من Meta للنشر الحكومي الشامل للذكاء الاصطناعي

عامل DOGE: الذكاء الاصطناعي يلتقي بكفاءة الحكومة

كان أحد أكثر التطورات دراماتيكية في 2025 هو تقاطع سياسة الذكاء الاصطناعي مع وزارة كفاءة الحكومة (DOGE)، المبادرة التي يقودها Elon Musk والتي استخدمت أنظمة الذكاء الاصطناعي لتحليل الإنفاق الفيدرالي وتحديد التكرار وتسريع قرارات الموظفين.

نشرت DOGE أدوات ذكاء اصطناعي من أجل:

  • تحليل العقود الفيدرالية وأنماط الإنفاق على نطاق واسع
  • تحديد الموظفين المحتمل تسريحهم
  • مراجعة مخرجات الوكالات التنظيمية بهدف إلغائها
  • أتمتة سير عمل الاتصالات والمعالجة

مثّل هذا أكثر نشر دراماتيكي للذكاء الاصطناعي في صنع القرار الحكومي في تاريخ الولايات المتحدة — وأثار أسئلة قانونية جوهرية حول الإجراءات القانونية الواجبة والدقة والمساءلة عندما تؤثر أنظمة الذكاء الاصطناعي على وظائف الموظفين الفيدراليين.

إعلان

حرب تصدير الرقائق: سياسة الذكاء الاصطناعي من خلال ضوابط التجارة

في حين تُشكّل الأوامر التنفيذية حوكمة الذكاء الاصطناعي المحلية، تمثل ضوابط تصدير أشباه الموصلات المتقدمة السياسة الخارجية الأمريكية للذكاء الاصطناعي في أكثر أشكالها ملموسية.

حُوفظ على قيود تصدير الرقائق من عهد Biden — التي تحد من تصدير Nvidia H100 وA100 إلى الصين — بل عُزّزت في بعض الجوانب في عهد Trump. تستند هذه الضوابط إلى الحساب الاستراتيجي بأن تفوق الولايات المتحدة في الذكاء الاصطناعي يعتمد جزئياً على حرمان الصين من الوصول إلى أكثر أجهزة التدريب تقدماً.

نتائج هذه القيود:

  • أبطأت بشكل كبير قدرة الصين على تدريب أكبر النماذج الحدودية
  • خلقت ضغطاً هائلاً على الشركات الصينية لتطوير بدائل محلية (رقائق Huawei Ascend)
  • دفعت بعض الحوسبة إلى دول ثالثة كحلول بديلة
  • ولّدت احتكاكاً مع حلفاء الولايات المتحدة الذين يصدرون رقائق مقيدة إلى أسواق مقيدة

أظهر عرض DeepSeek في يناير 2025 أن ذكاءً اصطناعياً عالي القدرة يمكن تدريبه بعدد أقل من الرقائق (وعلى أجهزة أقدم)، مما طعن في الفرضية الأساسية لهذه الاستراتيجية — رغم أن المسؤولين الأمريكيين يؤكدون أن القيود لا تزال مهمة لأكثر مشاريع الذكاء الاصطناعي طموحاً.

المقارنة مع Biden

استجابة القطاع الصناعي: تصفيق في الغالب مع بعض القلق

رحّب قطاع التكنولوجيا بشكل عام بالاتجاه نحو إلغاء القيود، مع بعض الفروق الدقيقة:

دعم حماسي: رحّبت شركات الذكاء الاصطناعي الحدودية (OpenAI، Anthropic، Google، Meta) بإزالة متطلبات الإبلاغ عن السلامة قبل الإصدار والإشارات ضد الأعباء التنظيمية الجديدة.

مراقبة حذرة: يحتاج بائعو الذكاء الاصطناعي للمؤسسات الذين يبيعون للحكومة إلى وضوح بشأن قواعد المشتريات، وليس مجرد إلغاء القيود.

قلق: يشعر باحثو أخلاقيات الذكاء الاصطناعي ومنظمات المجتمع المدني والنقابات العمالية وبعض حكومات الولايات بالقلق من أن إزالة الحواجز الفيدرالية مع استباق قواعد الولايات يخلق فجوات حقيقية في السلامة والحقوق.

احتكاك دولي: أعرب الاتحاد الأوروبي والمملكة المتحدة وكندا عن مخاوفهم بشأن ابتعاد الولايات المتحدة عن التعددية التي تركز على السلامة، مما يعقّد التنسيق بشأن حوكمة الذكاء الاصطناعي الحدودي.

ماذا يعني هذا لتطوير الذكاء الاصطناعي العالمي

للتحول الأمريكي تداعيات عالمية:

  1. خطر السباق نحو القاع: إذا أشار أكبر اقتصاد للذكاء الاصطناعي إلى أن متطلبات السلامة اختيارية، فقد تقلل دول أخرى من أولويتها للبقاء تنافسية
  2. التباعد بين الاتحاد الأوروبي والولايات المتحدة: الفجوة المتسعة بين النهج الاحترازي للاتحاد الأوروبي ونهج الابتكار أولاً للولايات المتحدة تخلق تعقيداً حقيقياً في الامتثال للشركات متعددة الجنسيات
  3. تموضع الصين: الخطوة الأمريكية نحو إلغاء القيود تقوّض إلى حد ما سردية “القيم الديمقراطية” لحوكمة الذكاء الاصطناعي — مما يصعّب الحجة بأن البديل لنهج الصين هو بالضرورة أفضل لحقوق الإنسان
  4. تشرذم المعايير: مع سحب الولايات المتحدة والاتحاد الأوروبي في اتجاهات مختلفة في هيئات المعايير الدولية، يصبح التوافق على معايير حوكمة الذكاء الاصطناعي أصعب تحقيقاً

الخلاصة

تمثل أوامر Trump التنفيذية للذكاء الاصطناعي أهم انعكاس في سياسة التكنولوجيا الأمريكية منذ الأيام الأولى لتنظيم الإنترنت. من خلال إعطاء الأولوية للهيمنة التنافسية على السلامة الاحترازية، ومحاولة استباق الابتكار على مستوى الولايات في حوكمة الذكاء الاصطناعي، وضعت الإدارة رهاناً واضحاً: أن تطوير الذكاء الاصطناعي المتحرر من التنظيم سينتج نتائج أفضل من تطوير الذكاء الاصطناعي المُشكَّل بحواجز قائمة على الحقوق.

نتائج هذا الرهان — للتنافسية الأمريكية، ولسلامة الذكاء الاصطناعي، وللعمال المتأثرين بنشر الذكاء الاصطناعي، وللنظام البيئي للحوكمة العالمية — ستتكشف خلال العقد القادم.

ما هو واضح بالفعل: عصر التوافق بين الحزبين على سياسة الذكاء الاصطناعي قد انتهى. أصبحت حوكمة الذكاء الاصطناعي جبهة في الحرب الثقافية الأوسع حول دور الحكومة في التكنولوجيا والمجتمع.

تابعوا AlgeriaTech على LinkedIn للتحليلات التقنية المهنية تابعوا على LinkedIn
تابعونا @AlgeriaTechNews على X للحصول على أحدث تحليلات التكنولوجيا تابعنا على X

إعلان

الأسئلة الشائعة

ما المقصود بـ Trump’s AI Revolution؟

يتناول هذا المقال الجوانب الأساسية لهذا الموضوع، ويستعرض الاتجاهات الحالية والجهات الفاعلة الرئيسية والتداعيات العملية على المهنيين والمؤسسات في عام 2026.

لماذا يُعد هذا الموضوع مهمًا؟

يكتسب هذا الموضوع أهمية كبيرة لأنه يؤثر بشكل مباشر على كيفية تخطيط المؤسسات لاستراتيجيتها التقنية وتخصيص مواردها وتموضعها في مشهد سريع التطور.

ما أبرز النقاط المستخلصة من هذا المقال؟

يحلل المقال الآليات الرئيسية والأطر المرجعية والأمثلة الواقعية التي تشرح كيفية عمل هذا المجال، مستندًا إلى بيانات حديثة ودراسات حالة عملية.

المصادر والقراءات الإضافية