إن أهم منافسة جيوسياسية في القرن الحادي والعشرين لا تُخاض في ساحات المعارك أو البحار. بل تُخاض في مختبرات الأبحاث ومراكز البيانات والأروقة الحكومية وهيئات المعايير الدولية — ونتيجتها ستحدد من يضع قواعد الذكاء الاصطناعي للقرن القادم.
في عام 2026، دخل سباق حوكمة الذكاء الاصطناعي العالمي مرحلة جديدة. فالسؤال الأساسي — “هل يجب تنظيم الذكاء الاصطناعي؟” — أُجيب عنه بشكل قاطع: نعم. انتقل النقاش إلى “من قبل من، وبأي شروط، ولمصلحة من؟” والإجابات التي تُصاغ في واشنطن وبكين وبروكسل ولندن ونيودلهي ليست دائماً متوافقة.
نماذج الحوكمة الثلاثة للذكاء الاصطناعي
ظهرت ثلاثة مناهج متميزة لحوكمة الذكاء الاصطناعي كقوالب مهيمنة، يعكس كل منها قيماً أعمق حول العلاقة بين التكنولوجيا والحكومة والاقتصاد والمجتمع:
النموذج الأول: الإطار الاحترازي للاتحاد الأوروبي
المنطق الأساسي: يجب تنظيم الذكاء الاصطناعي بشكل استباقي على أساس المخاطر، مع إعطاء الأولوية لحقوق الإنسان والسلامة على سرعة الابتكار.
يُعد قانون الذكاء الاصطناعي الأوروبي (المُطبّق بالكامل اعتباراً من أغسطس 2026) أشمل تشريع للذكاء الاصطناعي في العالم. يحظر استخدامات معينة للذكاء الاصطناعي بشكل كامل، ويفرض متطلبات صارمة على التطبيقات عالية المخاطر، وينشئ بنية تحتية للإنفاذ بعقوبات حقيقية — غرامات تصل إلى 7% من الإيرادات السنوية العالمية.
نقاط القوة: يوفر قواعد واضحة، ويبني ثقة الجمهور، ويحمي الحقوق الأساسية
نقاط الضعف: قد يبطئ النشر، ويخلق عيوباً تنافسية، ويكبح الابتكار في الحدود الأمامية
التأثير العالمي: مرتفع — “تأثير بروكسل” حقيقي؛ الشركات متعددة الجنسيات تطبق المعايير الأوروبية عالمياً
النموذج الثاني: نهج الولايات المتحدة القائم على التنافسية أولاً
المنطق الأساسي: قيادة الذكاء الاصطناعي هي مسألة أمن قومي وهيمنة اقتصادية؛ يجب أن يقلل التنظيم الاحتكاك أمام الابتكار.
بموجب الأمر التنفيذي لإدارة Trump في يناير 2025 “إزالة العوائق أمام القيادة الأمريكية في الذكاء الاصطناعي”، رفضت الولايات المتحدة صراحةً إطار سلامة الذكاء الاصطناعي لعهد Biden واستبدلته بنهج يركز على التنافسية. وصدر أمر تنفيذي متابع في ديسمبر 2025 “ضمان إطار سياسة وطنية للذكاء الاصطناعي” استهدف مباشرةً تنظيمات الذكاء الاصطناعي على مستوى الولايات.
تدعو خطة العمل الأمريكية للذكاء الاصطناعي صراحةً إلى مواجهة نفوذ الصين في هيئات المعايير الدولية للذكاء الاصطناعي.
نقاط القوة: يحافظ على سرعة الابتكار، ويحافظ على قيادة الولايات المتحدة في النماذج الحدودية
نقاط الضعف: يخلق عجزاً في الثقة، ويترك أسئلة السلامة دون حل، ووضع مجزأ على مستوى الولايات
التأثير العالمي: مرتفع جداً — شركات الذكاء الاصطناعي الأمريكية تهيمن على الأسواق العالمية؛ ما تبنيه الولايات المتحدة يتبناه العالم
النموذج الثالث: نهج الصين بالإشراف الحكومي
المنطق الأساسي: يجب أن يخدم الذكاء الاصطناعي أهداف التنمية الوطنية والاستقرار الاجتماعي وأولويات الحزب الشيوعي؛ الحوكمة مدمجة مع السياسة الصناعية.
أصدرت الصين بعضاً من أوائل اللوائح المخصصة للذكاء الاصطناعي في العالم: لوائح التوصية الخوارزمية (2022)، ولوائح التركيب العميق (التزييف العميق) (2022)، ولوائح الذكاء الاصطناعي التوليدي (2023). تركز هذه بشكل كبير على السيطرة على المحتوى والأمن القومي وضمان أن مخرجات الذكاء الاصطناعي “تدعم القيم الاشتراكية الجوهرية”.
على الصعيد الدولي، اقترحت الصين إنشاء WAICO — المنظمة العالمية للتعاون في مجال الذكاء الاصطناعي — هيئة مرتبطة بالأمم المتحدة تمنح الصين دوراً محورياً في تحديد معايير الذكاء الاصطناعي العالمية.
في عام 2025، نشرت الحكومة الصينية خطة عمل عالمية لحوكمة الذكاء الاصطناعي وضعت مبادئ الحوكمة الصينية كبديل مشروع لنهج الاتحاد الأوروبي والولايات المتحدة بالنسبة لدول الجنوب العالمي.
نقاط القوة: تمكّن من التوسع السريع للذكاء الاصطناعي بتوجيه حكومي؛ سوق محلية كبيرة للتجريب
نقاط الضعف: تفتقر إلى الثقة الدولية؛ مخاوف بشأن الخصوصية وحقوق الإنسان؛ الابتكار محدود بقيود المحتوى
التأثير العالمي: يتزايد بسرعة، خاصة في دول مبادرة الحزام والطريق
مشهد الحوكمة في 2026: التطورات الرئيسية
دخول الأمم المتحدة إلى الساحة
يشهد عام 2026 أول منتدى متعدد الأطراف حقيقي مدعوم من الأمم المتحدة لحوكمة الذكاء الاصطناعي: الحوار العالمي حول حوكمة الذكاء الاصطناعي، الذي انعقد بمشاركة أكثر من 140 دولة، إلى جانب الهيئة العلمية الدولية المستقلة للذكاء الاصطناعي — المستوحاة جزئياً من الهيئة الحكومية الدولية المعنية بتغير المناخ (IPCC).
هذه الهيئات لا تملك سلطة إنفاذ. لكنها تؤسس المفردات المشتركة والأساس الواقعي لمعايير الذكاء الاصطناعي الدولية — وهو مقدمة حاسمة لاتفاقيات ملزمة.
أنشأت مجموعة السبع (G7) (التي تستضيفها الولايات المتحدة في 2026) ومجموعة العشرين (G20) مجموعات عمل لحوكمة الذكاء الاصطناعي. وجلبت قمة الهند لتأثير الذكاء الاصطناعي منظور أكبر ديمقراطية في العالم من حيث عدد السكان إلى مناقشات الذكاء الاصطناعي العالمية.
مؤشر جاهزية الحكومات للذكاء الاصطناعي من Oxford 2025
أظهر مؤشر جاهزية الحكومات للذكاء الاصطناعي من Oxford Insights — الذي يقيس استعداد الدول لتطبيق الذكاء الاصطناعي في الخدمات العامة — تحركات لافتة:
| الدولة | ترتيب 2025 | نقطة القوة الرئيسية |
|---|---|---|
| الولايات المتحدة | 1 | التكنولوجيا، البنية التحتية |
| سنغافورة | 2 | السياسات، الحوكمة، البنية التحتية |
| المملكة المتحدة | 3 | السياسات، رأس المال البشري |
| فنلندا | 4 | توفر البيانات، رأس المال البشري |
| كندا | 5 | رأس المال البشري، البنية التحتية |
| الصين | 6 (ارتفاعاً من 23) | التكنولوجيا، المنظومة البيئية |
| كوريا الجنوبية | 7 | التكنولوجيا، البنية التحتية |
| ألمانيا | 8 | البنية التحتية، رأس المال البشري |
| فرنسا | 9 | السياسات، البنية التحتية |
| اليابان | 10 | التكنولوجيا، البنية التحتية |
تعكس القفزة الاستثنائية للصين من المركز 23 إلى المركز 6 الاستثمار الحكومي الضخم في البنية التحتية للذكاء الاصطناعي ونضج منظومتها المحلية للذكاء الاصطناعي.
القوى المتوسطة: اختيار الأطراف أم البقاء على الحياد؟
بالنسبة للدول التي ليست قوى عظمى في الذكاء الاصطناعي، يخلق سباق الحوكمة خياراً استراتيجياً صعباً: التحالف مع نهج الولايات المتحدة/الاتحاد الأوروبي، أو قبول تكنولوجيا الذكاء الاصطناعي الصينية مع معايير الحوكمة الصينية المرفقة، أو محاولة تطوير استراتيجيات سيادية للذكاء الاصطناعي.
حدد تحليل Chatham House لفبراير 2026 أربع استراتيجيات متاحة للقوى المتوسطة:
- التخصص: تطوير قدرات محددة في جزء واحد من سلسلة إمداد الذكاء الاصطناعي (المواهب، البيانات، التطبيقات، الأجهزة)
- التحالف: التحالف الرسمي مع أحد الكتلتين المهيمنتين والوصول إلى منظومتيهما للذكاء الاصطناعي
- السيادة المشتركة: الشراكة مع قوى متوسطة أخرى لتعزيز النفوذ الجماعي
- التحوّط: الاستخدام المتعمد لقدرات من كتل متعددة لتجنب التبعية
تبحر دول مثل الإمارات والسعودية والهند وكوريا الجنوبية والبرازيل جميعها في هذا المسار. تعكس مبادرة السعودية “Humain” للذكاء الاصطناعي بقيمة 100 مليار دولار واستثمار الإمارات في بناء بنية تحتية محلية لمعالجات الرسوميات (GPU) الرغبة في امتلاك قدرة سيادية حقيقية في الذكاء الاصطناعي بدلاً من التبعية المطلقة.
حرب المعايير: حيث تُحسم الحوكمة فعلياً
إلى جانب التشريعات البارزة، تدور المعركة الحقيقية للحوكمة في هيئات المعايير التقنية التي لم يسمع عنها معظم الناس:
ISO/IEC: المعايير الدولية لإدارة مخاطر الذكاء الاصطناعي (ISO 42001، ISO 23894) تُعتمد من قبل المؤسسات عالمياً كأطر للامتثال
IEEE: معايير التصميم الأخلاقي للذكاء الاصطناعي والشفافية وقابلية التفسير
ITU: هيئة معايير الاتصالات والتكنولوجيا التابعة للأمم المتحدة، حيث تتنافس الصين والولايات المتحدة لتحديد المعايير التقنية للذكاء الاصطناعي
NIST (الولايات المتحدة): إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF) يُستخدم عالمياً كأداة عملية للحوكمة — رغم عدم امتلاكه قوة ملزمة
ETSI (أوروبا): معايير الاتصالات الأوروبية التي تشمل بشكل متزايد متطلبات أنظمة الذكاء الاصطناعي
تعطي خطة العمل الأمريكية للذكاء الاصطناعي الأولوية صراحةً للفوز في هذه الهيئات، داعيةً إلى مناصرة “قوية” ضد نفوذ الصين. والصين، من جانبها، تبني نفوذها بشكل منهجي من خلال تدريب خبراء تقنيين من الدول النامية الذين يشاركون بعد ذلك في تصويتات المعايير.
سلامة الذكاء الاصطناعي: إرث Bletchley في 2026
أنتجت قمة سلامة الذكاء الاصطناعي في نوفمبر 2023 في Bletchley Park إعلان Bletchley — الذي وقّعته 28 دولة بما فيها الولايات المتحدة والمملكة المتحدة والاتحاد الأوروبي والصين والهند — معترفةً بأن الذكاء الاصطناعي الحدودي يشكل مخاطر “كارثية محتملة” وملتزمةً بالتقييم التعاوني للسلامة.
في عام 2026، تشمل منظومة سلامة الذكاء الاصطناعي التي نمت من Bletchley:
- معهد سلامة الذكاء الاصطناعي البريطاني (AISI): يجري تقييمات للنماذج الحدودية قبل إصدارها؛ قيّم GPT-4o و Claude 3 و Gemini Advanced
- معهد سلامة الذكاء الاصطناعي الأمريكي (NIST AISI): أُنشئ في عهد Biden؛ وضعه في ظل إدارة Trump غير مؤكد لكنه يستمر عملياتياً
- الشبكة الدولية لمعاهد سلامة الذكاء الاصطناعي: تنسق التقييمات عبر المملكة المتحدة والولايات المتحدة وكندا وأستراليا واليابان وسنغافورة وكوريا الجنوبية
السؤال الأساسي الذي تحاول هذه المعاهد الإجابة عنه: “ما مدى قدرة أنظمة الذكاء الاصطناعي الأكثر تقدماً؟ وما القدرات التي قد تظهر ولم نتوقعها؟” الإجابات تشكّل قرارات الحوكمة على كل المستويات.
إعلان
الرهانات الجيوسياسية: لماذا هذا ليس مجرد حديث سياسات
لنتائج سباق حوكمة الذكاء الاصطناعي آثار جيوسياسية عميقة:
الهيمنة الاقتصادية: الدول والشركات التي تضع قواعد الذكاء الاصطناعي تجني العائدات الاقتصادية من نشر الذكاء الاصطناعي عالمياً
التطبيقات العسكرية: الأسلحة المستقلة المدعومة بالذكاء الاصطناعي وتحليل الاستخبارات والعمليات السيبرانية واللوجستيات تخلق مزايا عسكرية جديدة ومخاطر جديدة
السيطرة على المعلومات: التضليل المعلوماتي المدعوم بالذكاء الاصطناعي على نطاق واسع يعيد بالفعل تشكيل الانتخابات والخطاب العام؛ أطر الحوكمة تحدد من يمكنه نشر هذه الأدوات وبأي قواعد
تصدير التنظيم: أصبحت GDPR معياراً عالمياً للخصوصية من خلال التصدير التنظيمي. قد يفعل قانون الذكاء الاصطناعي الأوروبي الشيء ذاته لحوكمة الذكاء الاصطناعي
وضع المعايير: ما يُعرّف بأنه ذكاء اصطناعي “غير آمن” اليوم يشكّل اتجاهات البحث غداً؛ الدول التي تضع معايير السلامة تشكّل ما يُبنى من ذكاء اصطناعي
المواهب والبيانات: تؤثر حوكمة الذكاء الاصطناعي على المكان الذي يختار فيه الباحثون العمل وما البيانات التي يمكن استخدامها للتدريب — مما يؤثر مباشرةً على من يمكنه بناء أقدر الأنظمة
خطر تشرذم الحوكمة
السيناريو الأخطر لمنظومة الذكاء الاصطناعي العالمية ليس إطار حوكمة واحداً سيئاً — بل غياب أي إطار عالمي متسق. يخلق التشرذم التنظيمي — قواعد مختلفة في كل ولاية قضائية كبرى:
- تكاليف امتثال لا يستطيع تحمّلها سوى الشركات الكبرى
- فرص المراجحة التنظيمية التي تدفع التطوير إلى الولايات القضائية الأقل تنظيماً
- معايير سلامة غير متسقة تسمح بنشر أنظمة خطيرة في مكان ما
- احتكاكات جيوسياسية حيث تصبح أنظمة الذكاء الاصطناعي أدوات للمنافسة السياسية
يحاول الحوار العالمي للأمم المتحدة حول حوكمة الذكاء الاصطناعي بناء البنية التحتية الدبلوماسية للتقارب في نهاية المطاف — لكن الاتفاقيات الدولية الملزمة الجوهرية بشأن الذكاء الاصطناعي تبقى بعيدة سنوات على الأقل.
نظرة مستقبلية: ما ستقرره الفترة 2026-2028
ستشكّل عدة قرارات محورية المرحلة القادمة من حوكمة الذكاء الاصطناعي العالمية:
- إنفاذ قانون الذكاء الاصطناعي الأوروبي: أول الغرامات الكبرى بموجب القانون ستشير إلى مدى استعداد الاتحاد الأوروبي للحزم — وستحفّز الامتثال عالمياً
- WAICO: هل ستكتسب المنظمة العالمية لحوكمة الذكاء الاصطناعي المقترحة من الصين زخماً، خاصة بين دول الجنوب العالمي
- التوافق الأمريكي-الأوروبي: هل يمكن للولايات المتحدة والاتحاد الأوروبي التنسيق بما يكفي لتقديم نهج ديمقراطي موحد لحوكمة الذكاء الاصطناعي، أم أن اختلافاتهما ستشرذم الموقف الغربي
- اتفاقية دولية لسلامة الذكاء الاصطناعي: هل تتطور عملية Bletchley غير الرسمية نحو التزامات ملزمة بشأن تقييم ونشر النماذج الحدودية
- الاستراتيجيات الوطنية للذكاء الاصطناعي: هل تطوّر القوى المتوسطة قدرات سيادية حقيقية في الذكاء الاصطناعي أم تصبح مجرد متلقية للتكنولوجيا المحكومة بقواعد الآخرين
الخلاصة
سباق حوكمة الذكاء الاصطناعي ليس حبكة فرعية في الجغرافيا السياسية — بل أصبح بشكل متزايد الحدث الرئيسي. القرارات التي تُتخذ الآن حول من ينظّم الذكاء الاصطناعي، وما المسموح وما المحظور، وقيم من تُشفَّر في أنظمة الذكاء الاصطناعي، ستشكّل المشهد التكنولوجي والسياسي لعقود.
بالنسبة للمتخصصين في التكنولوجيا، فإن فهم بيئة الحوكمة التي يُطوَّر فيها الذكاء الاصطناعي ويُنشر لم يعد اختيارياً. إنها تشكّل المنتجات التي يمكن بناؤها، وفي أي أسواق، ومن قبل أي فرق. وتشكّل الفرص المهنية والمخاطر القانونية والمسؤولية الأخلاقية.
بالنسبة لمواطني كل دولة، تشكّل أنظمة الذكاء الاصطناعي التي ستؤثر بشكل متزايد على الوظائف والرعاية الصحية والتعليم والأمن والخدمات العامة.
الآلات لا تحكم نفسها. السؤال هو من يحكمها — ولمصلحة من.
إعلان
رادار القرار (العدسة الجزائرية)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — لا تمتلك الجزائر إطاراً وطنياً لحوكمة الذكاء الاصطناعي بعد وتخاطر بأن تصبح متلقياً سلبياً لقواعد تضعها الولايات المتحدة أو الاتحاد الأوروبي أو الصين. البنية التحتية المتنامية للاتصالات من Huawei/ZTE والروابط التجارية مع الاتحاد الأوروبي تعني أن خيارات الحوكمة من كلا الكتلتين تؤثر مباشرةً على تبني التكنولوجيا في الجزائر. |
| جاهزية البنية التحتية؟ | جزئية — يوفر CERIST العمود الفقري البحثي وتوسّع Algeria Telecom شبكة الألياف البصرية، لكن لا يوجد معهد وطني لسلامة الذكاء الاصطناعي، ولا إطار لإدارة مخاطر الذكاء الاصطناعي، وبنية حسابية محدودة لتقييم النماذج الحدودية. |
| توفر المهارات؟ | جزئي — تنتج الجزائر خريجين أقوياء في الرياضيات وعلوم الحاسوب (ESI و USTHB وجامعة تلمسان)، لكن خبرة سياسة وحوكمة الذكاء الاصطناعي ضعيفة للغاية. قليلون من المتخصصين المدرّبين في أخلاقيات الذكاء الاصطناعي وامتثال المعايير أو التصميم التنظيمي. |
| الجدول الزمني للعمل | 6-12 شهراً — يجب أن تبدأ وزارة الاقتصاد الرقمي والمقاولات الناشئة في صياغة استراتيجية وطنية للذكاء الاصطناعي تضع الجزائر في موقعها قبل أن تتبلور معايير الحوكمة العالمية. الانتظار بعد 2027 يخاطر بتقييد الجزائر في أطر لم يكن لها دور في تشكيلها. |
| أصحاب المصلحة الرئيسيون | وزارة الاقتصاد الرقمي والمقاولات الناشئة، وزارة الشؤون الخارجية (للمشاركة المتعددة الأطراف في منتديات الأمم المتحدة للذكاء الاصطناعي)، ANSSI (الآثار السيبرانية لحوكمة الذكاء الاصطناعي)، CERIST (المشاركة في المعايير التقنية)، Sonatrach و Sonelgaz (كمتبنين رئيسيين للذكاء الاصطناعي في الطاقة)، Djezzy و Mobilis (البنية التحتية للاتصالات المحكومة بمعايير ITU للذكاء الاصطناعي)، ESI و USTHB (بناء قدرات بحثية في الحوكمة) |
| نوع القرار | استراتيجي — هذا قرار تموضع أساسي. يجب أن تقرر الجزائر ما إذا كانت ستتوافق مع معايير الاتحاد الأوروبي (التوافق الطبيعي نظراً للقرب الجغرافي والتجاري)، أو التحوط عبر الكتل، أو السعي إلى سيادة مشتركة مع شركاء الاتحاد الأفريقي وجامعة الدول العربية. |
الخلاصة السريعة: الجزائر غائبة بشكل ملحوظ عن منتديات حوكمة الذكاء الاصطناعي العالمية في لحظة تُكتب فيها القواعد. يجب على وزارة الاقتصاد الرقمي إعطاء الأولوية لإرسال مندوبين تقنيين إلى مجموعات عمل معايير الذكاء الاصطناعي في ISO/IEC و ITU، ويجب على CERIST البدء في بناء قدرات بحثية في حوكمة الذكاء الاصطناعي. موقع الجزائر بين التأثير التنظيمي الأوروبي والحضور المتزايد للبنية التحتية التكنولوجية الصينية يجعل استراتيجية “التحوط” التي حددها Chatham House المسار الأكثر واقعية — لكنها تتطلب مشاركة سياسية فاعلة، وليس انتظاراً سلبياً.
المصادر والقراءات الإضافية
- Eight Ways AI Will Shape Geopolitics in 2026 — Atlantic Council
- Government AI Readiness Index 2025 — Oxford Insights
- How Middle Powers Can Weather US-Chinese AI Dominance — Chatham House
- How 2026 Could Decide the Future of AI — Council on Foreign Relations
- Global AI Governance Action Plan — China Ministry of Foreign Affairs
إعلان