باتت كل دولة كبرى تمتلك اليوم استراتيجية وطنية للذكاء الاصطناعي. ترصد منظمة OECD أكثر من 60 دولة نشرت شكلاً من أشكال الأطر السياساتية في مجال الذكاء الاصطناعي منذ عام 2017. غير أن عام 2026 هو العام الذي لم تعد فيه الأعذار مقبولة. لقد شاخت خرائط الطريق، وباتت المواعيد المنصوص عليها في وثائق الاستراتيجية تمضي. لم تعد الحكومات تُقيَّم على جودة طموحاتها، بل على ما بنته فعلاً.
التباين بين الدول أحد من أن تُشير إليه الوثائق السياساتية. فبعض الدول ترجمت استراتيجياتها إلى بنى تحتية وأنابيب مواهب وتطبيقات حقيقية. وأنتجت دول أخرى وثائق مبهرة ولا شيء يُذكر. الفجوة قابلة للقياس الآن، والدروس قابلة للنقل.
من خرائط الطريق إلى النتائج: 2026 عام المساءلة
كانت الموجة الأولى من الاستراتيجيات الوطنية للذكاء الاصطناعي، المنشورة بين عامَي 2017 و2020، ذات طابع تطلعي في معظمها. حددت الذكاء الاصطناعي أولوية استراتيجية، ورسمت نوايا الاستثمار، وأسّست هيئات حوكمة. كانت كندا وفرنسا والمملكة المتحدة وسنغافورة والصين من أوائل المتحركين. أما الولايات المتحدة فقد تحركت لاحقاً، لكن بثقل مؤسسي أكبر.
بين عامَي 2023 و2024، ظهرت موجة ثانية من الاستراتيجيات، أكثر تحديداً وتمويلاً وإلحاحاً. أدى الأثر الصادم لنماذج اللغة الكبيرة على الرأي العام إلى تسريع الجداول الزمنية في كل مكان. حكومات كانت تُفكر في الذكاء الاصطناعي بأفق خمس سنوات وجدت نفسها تحتاج إلى إجابات في غضون ثمانية عشر شهراً.
اليوم، في 2026، يرصد Stanford AI Index ومتابعة OECD وتقييمات مستقلة ما نادراً ما تفعله وثائق الاستراتيجية: القياس. تحوّل السؤال من “هل لديك استراتيجية؟” إلى “ماذا أنجزت فعلاً؟”
الولايات المتحدة: محرك القطاع الخاص واحتكاك القطاع العام
لم يكن النهج الأمريكي موجَّهاً من الدولة بالمعنى الأوروبي أو الصيني قط. يرتكز على حيوية القطاع الخاص، وقد أتى هذا الرهان أُكُلَه من حيث القدرة الخام. تهيمن الشركات ذات المقار الأمريكية على تطوير نماذج الأساس: تستوعب OpenAI وAnthropic وGoogle DeepMind وMeta AI وxAI مجتمعةً الجزء الأكبر من الاستثمار العالمي في الذكاء الاصطناعي.
الطبقة الفيدرالية مهمة لكنها مجزأة. أرسى المرسوم التنفيذي لعام 2023 بشأن الذكاء الاصطناعي إطاراً للحوكمة الفيدرالية وأوجب إجراء تقييمات أمنية للنماذج عالية القدرة. قدّم NIST AI Risk Management Framework (AI RMF 1.0) إرشادات طوعية للمؤسسات التي تبني أنظمة الذكاء الاصطناعي أو تنشرها. أقرّ CHIPS and Science Act تمويلاً بقيمة 52 مليار دولار لصناعة أشباه الموصلات المحلية، معالجاً بذلك مباشرةً التبعية الحوسبية التي يُعرّفها المخططون الاستراتيجيون باعتبارها الثغرة المحورية في سلاسل إمداد الذكاء الاصطناعي.
أطلق برنامج National AI Research Resource (NAIRR) التابع لـ NSF عام 2024، مانحاً الباحثين خارج كبرى شركات التكنولوجيا إمكانية الوصول إلى موارد الحوسبة ومجموعات البيانات. يبقى هذا متواضعاً قياساً بحجم الحوسبة الخاصة، لكنه ذو أهمية رمزية: إذ يُقرّ بأن سباق الذكاء الاصطناعي لا يمكن أن تخوضه الشركات ذات الميزانيات الهائلة وحدها.
التوتر في النموذج الأمريكي بنيوي. يُنتج نظام تقوده الشركات الخاصة ابتكاراً متسارعاً لكنه يوزع المنافع بصورة غير متساوية ويُفرز ثغرات في الحوكمة. كانت التدابير التنظيمية بطيئة ومتنازعاً عليها وكثيراً ما انقلبت تبعاً للخطوط السياسية. يجعل غياب قانون فيدرالي للذكاء الاصطناعي — رغم محاولات متعددة — المجال خاضعاً لقواعد قطاعية متشعبة وأطر طوعية.
الصين: التوجيه الحكومي وقيود الرقائق وميزة البيانات
يمثّل النموذج الصيني البديل الأوضح للمقاربة الأمريكية. تحدد الدولة أولويات التطبيق، وتُوجّه رأس المال عبر الشركات المملوكة للدولة وصناديق الثروة السيادية، وتُدرج تطوير الذكاء الاصطناعي في الخطط الوطنية. يُعامل “فصل الذكاء الاصطناعي” في Made in China 2025 وأُطره اللاحقة القدرةَ في مجال الذكاء الاصطناعي باعتبارها مسألة سياسة صناعية وأمن قومي، لا مجرد تنافسية اقتصادية.
النتائج ملموسة على صعيد نطاق النشر. تتصدر الصين العالم في تطبيقات الذكاء الاصطناعي المنشورة في التصنيع والمراقبة وإدارة المدن والخدمات المالية. تعمل Baidu وAlibaba وTencent وHuawei على نطاق يتيح الاختبار الميداني بأحجام لا تستطيع أي دولة أخرى مجاراتها.
الثغرة الاستراتيجية تتعلق بالرقائق الحوسبية. قيّدت ضوابط التصدير الأمريكية، المشددة تدريجياً منذ 2022، وصول الصين إلى أشباه الموصلات الأكثر تطوراً من NVIDIA وTSMC. غدت سلسلة رقائق Ascend للذكاء الاصطناعي من Huawei البديل المحلي الرئيسي. أظهرت مؤشرات الأداء لرقائق Ascend في 2025 تحسناً ملموساً، وإن ظلّ التحقق المستقل منها أمراً عسيراً. لم يوقف هذا القيد تطوير الذكاء الاصطناعي في الصين، بل أعاد توجيه الاستثمار نحو القدرات المحلية في مجال أشباه الموصلات وبنى معمارية بديلة.
ميزة البيانات الصينية بنيوية وكثيراً ما تُستهان بها. يُنشئ جمع البيانات المركزي على نطاق مستحيل في الديمقراطيات الليبرالية مجموعات بيانات تدريبية لتطبيقات بعينها — النقل، والتصوير الطبي، ومراقبة جودة المنتجات الصناعية — لا يستطيع أي بلد آخر تكرارها. وسيادة البيانات خيار سياسي وحصن تنافسي في آنٍ واحد.
الاتحاد الأوروبي: صانع المعايير التنظيمية، المتأخر الصناعي
راهن الاتحاد الأوروبي على الحوكمة لتشكيل هويته في مجال الذكاء الاصطناعي. يُنشئ EU AI Act، المُطبَّق كلياً منذ 2026، أول إطار قانوني ملزم وشامل في العالم لأنظمة الذكاء الاصطناعي. يُصنّف الأنظمة وفق مستوى المخاطرة، ويُلزم بإجراء تقييمات مطابقة للتطبيقات عالية المخاطر، ويحظر حالات استخدام بعينها. ولأن الاتحاد الأوروبي سوق قوامه 450 مليون مستهلك، فإن الشركات العالمية التي تبني للمستخدمين الأوروبيين ملزمة بالامتثال، مما يجعل القانون معياراً عالمياً فعلياً لكثير من التطبيقات، تماماً كما صار اللائحة العامة لحماية البيانات (GDPR) معياراً لخصوصية البيانات.
تهدف مبادرة Gaia-X للبنية التحتية السحابية الأوروبية إلى توفير بديل عن الاعتماد على شركات الحوسبة السحابية الأمريكية العملاقة. تأخر التقدم عن التوقعات الأولية، وتخلّت المبادرة عن بعض طموحاتها الأولى. غير أن البنية التحتية السحابية المستضافة والمُدارة أوروبياً تبقى هدفاً استراتيجياً يحظى بمشتريات فعلية ودعم سياسي.
يُوجّه Horizon Europe، إطار البحث والابتكار في الاتحاد الأوروبي، أكثر من مليار يورو تحديداً نحو البحث في الذكاء الاصطناعي عبر منح مباشرة وشراكات في إطار الشراكة بين القطاعين العام والخاص في مجال الذكاء الاصطناعي والبيانات والروبوتات. يتولى المكتب الأوروبي للذكاء الاصطناعي، المُنشأ عام 2024، تنسيقاً مركزياً للتطبيق عبر الدول الأعضاء.
الانتقاد الموجّه للنموذج الأوروبي ثابت: فهو ينظّم أسرع مما يبني. لا توجد شركة أوروبية منافسة على مستوى نماذج الأساس. يستمر استيعاب المواهب الأوروبية في الذكاء الاصطناعي من قِبَل المختبرات والشركات التكنولوجية الأمريكية. الحجة المضادة — أن الذكاء الاصطناعي الموثوق والقابل للتدقيق يُمثّل بحد ذاته ميزة تنافسية في القطاعات المنظّمة كالصحة والقانون والمالية — مقنعة، لكنها لم تُفرز بعد بطلاً أوروبياً في الذكاء الاصطناعي.
إعلان
الهند: طموح بحجم السكان وسباق البنى التحتية
كان دخول الهند إلى مجموعة الدول ذات استراتيجية الذكاء الاصطناعي المتقدمة أسرع مما توقعه معظم المراقبين. تتضمن IndiaAI Mission، المعتمدة عام 2024 بتخصيص ₹103 مليار (نحو 1.2 مليار دولار) على مدى خمس سنوات، البنية التحتية للحوسبة وحوكمة البيانات وتطوير التطبيقات وبرامج المواهب.
مبادرات البيانات العامة لافتة بشكل خاص. India Stack — البنية التحتية الرقمية المتعددة الطبقات التي تضم هوية Aadhaar ومدفوعات UPI ووثائق DigiLocker — تُنتج بيانات المعاملات والتفاعلات على نطاق سكاني. يستهدف الإطار الوطني المقترح لحوكمة البيانات إتاحة مجموعات البيانات الحكومية لتدريب الذكاء الاصطناعي في ظل شروط خاضعة للرقابة.
خط الموهبة هو الميزة الأوضح. تُخرّج الهند سنوياً عدداً من خريجي الهندسة يفوق أي بلد آخر، وتتخصص نسبة كبيرة منهم في علوم الحاسوب والمجالات ذات الصلة. المشكلة في الاستبقاء: نسبة غير متناسبة من أفضل المواهب الهندية في الذكاء الاصطناعي تبني مسيرتها المهنية في الولايات المتحدة والمملكة المتحدة وكندا لا في الهند.
تبقى البنية التحتية القيد الأساسي. الوصول إلى موارد الحوسبة خارج البرنامج الحكومي المكافئ لـ NAIRR محدود. موثوقية الكهرباء في مناطق البحث والصناعة متفاوتة. IndiaAI Mission لديها أهداف طموحة لتوفير الحوسبة — لكن الجداول الزمنية لإبرام العقود في البرامج الحكومية نادراً ما تتوافق مع الجداول الأولية.
القوى المتوسطة: حيث تنجح الاستراتيجية المتمايزة
لا تتنافس كل استراتيجية وطنية ناجحة للذكاء الاصطناعي على الأبعاد ذاتها التي تتنافس عليها الولايات المتحدة أو الصين. بنت مجموعة من الاقتصادات الأصغر حجماً والأكثر رشاقة استراتيجياتها حول التمايز — بانتقاء نقاط قوة محددة، وتجنّب المجالات التي لا تستطيع المنافسة فيها، والتحرك بسرعة أكبر مما تتيحه البيروقراطيات الأضخم.
وضع AI Safety Institute (AISI) في المملكة المتحدة، المُنشأ عام 2023، بريطانياَ رائداً عالمياً في تقييم أمان الذكاء الاصطناعي. استحصل على اتفاقيات تعاون رسمية مع الولايات المتحدة وكندا وهيئات مكافئة أخرى لـ AISI. أتاح التركيز على السلامة والتقييم — بدلاً من تطوير نماذج الحدود — للمملكة المتحدة التأثير بما يفوق حجمها في حوكمة الذكاء الاصطناعي الدولية دون الحاجة إلى ميزانيات الحوسبة التي يستلزمها تطوير نماذج الأساس.
National AI Strategy 2.0 لسنغافورة، المنشورة أواخر عام 2023، هي بحق أكثر وثائق استراتيجية الذكاء الاصطناعي تفصيلاً عملياً أنتجتها أي حكومة. تحدد قطاعات صناعية بعينها (المالية، والخدمات اللوجستية، والرعاية الصحية)، وتُسمّي أهداف نشر ملموسة، وتربط الاستراتيجية بالمشتريات والتنظيم.
النهج الإماراتي هو الأكثر استثنائية: أنشأت UAE وزارة للذكاء الاصطناعي عام 2017، الأولى في العالم، وبنت منذ ذلك الحين استراتيجية وطنية حول أن تصبح مركزاً إقليمياً للذكاء الاصطناعي. تُقدّم Mohamed bin Zayed University of Artificial Intelligence (MBZUAI) أول درجات جامعية عليا متخصصة كلياً في الذكاء الاصطناعي على مستوى العالم. الاستراتيجية متاحة صراحةً لاستقطاب المواهب، إذ يواجه الباحثون الدوليون والشركات حواجز تنظيمية منخفضة للتأسيس في UAE.
تُركّز Pan-Canadian AI Strategy في كندا، في مرحلتها الثانية، الاستثمارات في ثلاثة معاهد وطنية للذكاء الاصطناعي (Vector وMila وAmii) مع تركيز خاص على البحث المسؤول في الذكاء الاصطناعي. تتجاوز كندا باستمرار حجمها الاقتصادي في المنشورات البحثية للذكاء الاصطناعي والتعاون الدولي، وإن تأخّر التسويق التجاري.
ما الذي يُجدي فعلاً: العوامل المشتركة
عبر الاستراتيجيات والجغرافيات، أنماط النجاح متسقة بما يكفي لاستخلاص دروس منها.
الوصول إلى الحوسبة غير قابل للتفاوض. كل دولة تحقق نشراً حقيقياً للذكاء الاصطناعي — لا مجرد بحث — استثمرت في بنية تحتية وطنية للحوسبة. دون حوسبة متاحة، لا بيئة عمل للمواهب.
الاستبقاء يتفوق على استقطاب المواهب. الدول التي تنجح على المدى البعيد تخلق ظروفاً تجعل مواهبها الذاتية راغبة في البقاء. هذا يعني رواتب تنافسية وتمويل بحثي وما هو أهم — مشكلات مثيرة للاهتمام للعمل عليها في السياق المحلي.
التركيز على التطبيقات يتفوق على استراتيجيات البحث الحصري. الدول التي حددت قطاعات رأسية عالية القيمة — تشخيص طبي في المملكة المتحدة، واحتيال في المدفوعات في سنغافورة، وغلة زراعية في الهند — ووجّهت نشر الذكاء الاصطناعي الحكومي في تلك القطاعات، أنشأت إثباتات مفهوم جذبت استثمارات خاصة وبنت خبرة تطبيقية أسرع من المقاربات القائمة على البحث أولاً.
جودة الشراكة بين القطاعين العام والخاص تهم أكثر من كميتها. امتلاك شراكات كثيرة بين القطاعين العام والخاص أمر يسير. أما امتلاك شراكات تشتري فيها الحكومة وتنشر وتُقدّم تغذية راجعة على نطاق واسع — مُولِّدةً إشارات طلب حقيقية للشركات المحلية في مجال الذكاء الاصطناعي — فهو العامل المميّز.
الحوكمة ميزة لا عائق. كثيراً ما يُوجَّه النقد للمقاربة الأوروبية، غير أن القواعد الواضحة في القطاعات المنظّمة تُقلّص مخاطر الامتثال وتُسرّع قرارات الشراء. الدول التي تفتقر إلى أطر حوكمة تجد أن المشترين في القطاع الخاص المنفّرين من المخاطر يتحركون ببطء على أي حال — لكن دون بنية تحتية تدعم النشر المسؤول على نطاق واسع.
إعلان
رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الأهمية بالنسبة للجزائر | عالية — الاستراتيجية الوطنية للذكاء الاصطناعي في الجزائر (SNIA) في مرحلة التنفيذ؛ استخلاص الدروس مما يُجدي في الدول المماثلة قابل للتطبيق مباشرةً |
| البنية التحتية جاهزة؟ | جزئياً — استثمارات الحوسبة جارية لكنها في طور النشأة؛ أنبوب المواهب في طور التطوير عبر ESTIN والبرامج الجامعية؛ الإطار التنظيمي في انتظار الاستكمال |
| المهارات متاحة؟ | جزئياً — تقليد رياضي راسخ؛ نقص في مهندسي تعلم الآلة التطبيقي وفرق منتجات الذكاء الاصطناعي؛ هجرة الكفاءات نحو فرنسا وكندا تظل تحدياً قائماً |
| الأفق الزمني للعمل | 6-12 شهراً |
| الجهات المعنية الرئيسية | وزارة الاقتصاد الرقمي، MESRS، ANADE، مختبرات البحث في الذكاء الاصطناعي، أقسام علوم الحاسوب في الجامعات |
| نوع القرار | استراتيجي |
خلاصة سريعة: نجاح الاستراتيجية الجزائرية في الذكاء الاصطناعي مرهون بجودة التنفيذ، لا بجودة الوثيقة. الدرس العالمي واضح: الدول الرابحة هي تلك التي تمتلك قطاعات تطبيقية رأسية محددة — صحة وزراعة وخدمات حكومية — لا تلك التي تمتلك أكثر الوثائق الاستراتيجية طموحاً. ينبغي للجزائر أن تقيس نفسها بالهند وسنغافورة، لا بالولايات المتحدة أو الاتحاد الأوروبي.
المصادر والقراءات الإضافية
- OECD AI Policy Observatory — لوحة متابعة الاستراتيجيات الوطنية للذكاء الاصطناعي
- NIST AI Risk Management Framework (AI RMF 1.0) — المعهد الوطني للمعايير والتقنية
- EU AI Act والمقاربة الأوروبية للذكاء الاصطناعي — المفوضية الأوروبية
- IndiaAI Mission — وزارة الإلكترونيات وتكنولوجيا المعلومات، حكومة الهند
- Stanford AI Index 2025 — جامعة ستانفورد، مركز الذكاء الاصطناعي المتمحور حول الإنسان
- Singapore National AI Strategy 2.0 — مكتب الأمة الذكية والحكومة الرقمية
- UK AI Safety Institute — الحكومة البريطانية





إعلان