أصبحت الحكومات في صمت أكبر فئة مشترين للذكاء الاصطناعي على وجه الأرض. تنشر الوكالات الدفاعية والإدارات الضريبية ووزارات الصحة وعمليات مراقبة الحدود وخدمات الرعاية الاجتماعية الذكاء الاصطناعي على نطاق واسع — وتشهد قواعد المشتريات التي تحكم تلك المشتريات إصلاحاً يُعدّ الأكثر أهمية منذ جيل. تغيّر جوهرياً ما يجب على الموردين إثباته قبل الفوز بعقد حكومي. ولأن العقود العامة تُرسي السوابق، فإن المعايير التي تفرضها الحكومات اليوم ستُعيد تعريف مفهوم “الذكاء الاصطناعي على مستوى المؤسسات” في جميع القطاعات.

حجم التحول

تجاوز الإنفاق الحكومي العالمي على الذكاء الاصطناعي 40 مليار دولار في عام 2025، ومن المتوقع أن يصل إلى 85 مليار دولار بحلول عام 2030، وفقاً لتقديرات IDC وGartner. يستأثر الحكومة الفيدرالية الأمريكية وحدها بما يقارب 18 مليار دولار سنوياً، مع وزارة الدفاع وشؤون المحاربين القدامى وإدارة الضمان الاجتماعي (Social Security Administration) في مقدمة أكبر المشترين الأفراد. تمثّل الدول الأعضاء في الاتحاد الأوروبي مجتمعةً 12 ملياراً إضافية. خصصت كلٌّ من الهند وكوريا الجنوبية والمملكة العربية السعودية والإمارات العربية المتحدة ميزانيات وطنية للذكاء الاصطناعي بمليارات الدولارات تستهدف تحديث الإدارة العامة تحديداً.

لا يتعلق الأمر بتجارب هامشية. تُدمج الحكومات الذكاء الاصطناعي في قرارات تمسّ حق المواطنين في الاستفادة من الخدمات الاجتماعية ومآلات العدالة الجنائية ووضع الإقامة والأهلية للرعاية الصحية. لذلك، فإن مخاطر الفشل في المشتريات تختلف اختلافاً جوهرياً عن حالة شركة خاصة تنشر روبوت محادثة. التحيز في خوارزمية التوظيف أمر سيء؛ أما التحيز في خوارزمية تحدد الأهلية للاستفادة من الخدمات الاجتماعية فيطال ملايين الأشخاص الضعفاء. هذا التفاوت يدفع الجهات التنظيمية إلى فرض متطلبات لم تكن موجودة قبل ثلاث سنوات.

مشتريات الذكاء الاصطناعي الفيدرالية الأمريكية: إرساء معيار جديد

وضعت الولايات المتحدة الإطار مبكراً. أرسى Executive Order 14110 الصادر أواخر عام 2023 متطلبات شاملة للوكالات التي تشتري أنظمة الذكاء الاصطناعي، تشمل اختبارات السلامة الإلزامية وتمارين الـ red-team للأنظمة عالية المخاطر، واشتراطات العلامة المائية للمحتوى الذي يُولّده الذكاء الاصطناعي في الاتصالات الحكومية. تبع ذلك مذكرة Office of Management and Budget (OMB) رقم M-24-10 التي وجّهت الوكالات إلى تعيين مسؤولين رئيسيين للذكاء الاصطناعي (Chief AI Officers)، ونشر جرد سنوي بحالات الاستخدام، وتطبيق NIST AI Risk Management Framework (AI RMF) معياراً أساسياً للتقييم في جميع مشتريات الذكاء الاصطناعي.

أصبح NIST AI RMF قائمة الامتثال الفعلية لأي مورّد يسعى للحصول على عقد فيدرالي. يلزم الموردين بتوثيق أربعة ركائز حوكمة — الحوكمة والرسم والقياس والإدارة — عبر دورة حياة الذكاء الاصطناعي بأكملها. يعني ذلك عملياً تقديم بطاقات النظام التي تصف مصدر بيانات التدريب وحالات الاستخدام المقصودة والقيود المعروفة والأداء عبر الفئات الديموغرافية الفرعية. باتت العقود تتضمن بصورة متزايدة بنوداً تُلزم الموردين بإخطار الوكالات في غضون 72 ساعة من وقوع أي حادثة ذكاء اصطناعي جوهرية — معيار مستعار مباشرةً من قانون الإخطار بانتهاكات الأمن السيبراني.

يجري حالياً تحديث Federal Acquisition Regulation (FAR) لتقنين كثير من هذه المتطلبات في صياغة العقود القياسية. بعد الانتهاء منه، يجب على أي شركة تبيع الذكاء الاصطناعي للحكومة الأمريكية — بصرف النظر عن حجمها — استيفاء هذه العتبات كشرط للترسية، لا مجرد ميزة إضافية.

تداعيات قانون الذكاء الاصطناعي الأوروبي على المشتريات

في الاتحاد الأوروبي، أدخل AI Act إطاراً مصنّفاً حسب المخاطر يجب على مسؤولي المشتريات التعامل معه الآن. تستلزم الأنظمة المصنّفة “عالية المخاطر” — التي تشمل الذكاء الاصطناعي المستخدم في البنية التحتية الحيوية والتعليم والتوظيف والخدمات الخاصة الأساسية وإنفاذ القانون والهجرة والقضاء — إجراء تقييمات مطابقة قبل النشر. بالنسبة للمشترين الحكوميين، يعني هذا التحقق من أن أي نظام ذكاء اصطناعي عالي المخاطر يقترحه المورّد قد اجتاز تقييم مطابقة، ويحتفظ بملف تقني، ويحمل علامة CE.

التداعية العملية بالغة الأثر: لا يستطيع الموردون الذين لم ينجزوا عمل تقييم المطابقة المشاركة قانونياً في مناقصات عامة عالية المخاطر في الاتحاد الأوروبي. أفرز هذا سوقاً ذات مستويين شبه فوري. يُسرّع اللاعبون الراسخون ذوو البنية التحتية للامتثال أعمال التوثيق؛ فيما يجد الموردون الأصغر والشركات غير الأوروبية التي لا تمتلك كيانات قانونية في الاتحاد الأوروبي أنفسهم خارج سوق عام بتريليونات اليوروهات.

تُطبّق الدول الأعضاء في الاتحاد الأوروبي أيضاً ملاحق وطنية للمشتريات. تتضمن استراتيجية الذكاء الاصطناعي الألمانية معايير تفضيل للأنظمة ذات المخرجات القابلة للتفسير في القرارات الإدارية الحساسة. نشرت DINUM الفرنسية (الإدارة الرقمية بين الوزارات) توجيهات تشترط إجراء تدقيقات التحيز لأي نظام ذكاء اصطناعي يُستخدم في خدمات التواصل مع المواطنين. تُضاف هذه الطبقات الوطنية فوق متطلبات قانون الذكاء الاصطناعي، مما يضاعف التزامات امتثال الموردين.

النهج البريطاني والكندي ودول الكومنولث

اعتمد المملكة المتحدة، خارج نطاق قانون الذكاء الاصطناعي الأوروبي بعد Brexit، نهجاً قائماً على المبادئ لا على القواعد. يُلزم إطار شفافية الخوارزميات الصادر عن Cabinet Office الدوائر الحكومية المركزية بنشر سجلات الشفافية للقرارات المساعَدة بالذكاء الاصطناعي التي تمسّ المواطنين. ينصبّ التركيز على المساءلة وقابلية التدقيق لا على تقييمات المطابقة قبل طرح المنتج في السوق.

يفرض التوجيه الكندي بشأن اتخاذ القرارات الآلي، في نسخته الثالثة المُعدّلة، تقييمات أثر خوارزمية مُدرّجة حسب جسامة القرار. يستلزم النظام الذي يؤتمت مهمة إدارية ذات مخاطر منخفضة تقييماً أخفّ؛ أما ذلك المؤثر على الهجرة أو الاستحقاقات الاجتماعية فيستلزم مراجعة مستقلة كاملة واختبار التحيز عبر الخصائص المحمية بموجب Canadian Human Rights Act وآليات تدخل بشري صريحة. يُطبَّق هذا التوجيه على جميع المؤسسات الفيدرالية ويتبناه عدد متزايد من الحكومات الإقليمية.

يشترك النهجان البريطاني والكندي في خيط مشترك مع الأطر الأمريكية والأوروبية: انتقل عبء الإثبات نهائياً من الحكومة إلى المورّد. لم يعد كافياً الادعاء بأن نظام ذكاء اصطناعي يعمل. يتعين على الموردين إثبات ذلك وتوثيقه والتحقق منه بصورة مستقلة في كثير من الحالات — أنه يعمل بعدالة وأمان ووفقاً للمعايير المنشورة.

إعلان

ما يجب على الموردين إثباته الآن

عبر مختلف الولايات القضائية، تتبلور مجموعة مشتركة من متطلبات الموردين. على أي شركة ذكاء اصطناعي جادة تستهدف العقود الحكومية في 2026 أن تكون مستعدة لتقديم:

توثيق القابلية للتفسير. لأي قرار يمسّ فرداً، يجب أن يكون المورّد قادراً على الشرح — بمصطلحات يفهمها مُقيِّم غير تقني — لماذا أنتج النظام مخرجاً بعينه. باتت النماذج المعتمة على الصندوق الأسود مُقصِيَةً بصورة متزايدة في الفئات عالية المخاطر.

تقارير اختبار التحيز والإنصاف. يجب على الموردين إثبات أن أداء نظامهم لا يتفاوت بصورة منهجية عبر الفئات الديموغرافية الفرعية المحددة بالعرق والجنس والعمر وحالة الإعاقة أو الجنسية، حسب الولاية القضائية. يجب إعداد هذه التقارير من قِبَل مُقيِّمين مؤهلين وتحديثها عند كل إعادة تدريب للنماذج.

سجلات مصدر البيانات. يجب توثيق بيانات التدريب: مصدرها والتراخيص التي تحكم استخدامها والاستثناءات أو التصفية المُطبَّقة والثغرات أو التحيزات المعروفة في مجموعة البيانات. جعلت النزاعات القانونية حول حقوق النشر لبيانات التدريب في أعقاب الذكاء الاصطناعي التوليدي هذا الشرط غير قابل للتفاوض بالنسبة للفرق القانونية الحكومية.

التزامات الإبلاغ عن الحوادث. باتت العقود تتضمن بصورة اعتيادية بنوداً تُلزم الموردين بالإبلاغ عن إخفاقات الذكاء الاصطناعي أو المخرجات غير المتوقعة أو الثغرات الأمنية في إطار زمني محدد — يتراوح عادةً بين 24 و72 ساعة للحوادث عالية الخطورة.

ضمانات التجاوز البشري. لأي قرار ذي عواقب، يجب أن يُصمَّم النظام ليتيح لمسؤول بشري تجاوز مخرج الذكاء الاصطناعي دون عوائق تقنية. ليست هذه بنية اختيارية؛ إنها شرط تعاقدي.

حركة الذكاء الاصطناعي السيادي

تسير بالتوازي مع متطلبات الامتثال توجهات أكثر صراحةً من الناحية السياسية: التفضيل للذكاء الاصطناعي السيادي. تُعطي حكومات فرنسا والهند وكندا ودول الخليج الأولوية صراحةً للموردين المحليين للذكاء الاصطناعي — أو تشترط في أدنى الأحوال أن تبقى البيانات التي تعالجها أنظمة الذكاء الاصطناعي على البنية التحتية الوطنية. تعكس مبادرة “الذكاء الاصطناعي صنع في فرنسا” وتفضيل الهند للنماذج المحلية في إطار مهمة IndiaAI، واستثمار المملكة العربية السعودية في نماذج تأسيسية محلية عبر Saudi Data and AI Authority (SDAIA)، المنطق ذاته: لا ينبغي أن تخضع أنظمة الذكاء الاصطناعي التي تتعامل مع بيانات المواطنين الحساسة والبنية التحتية الحيوية لسيطرة جهات أجنبية.

بالنسبة للشركات الأمريكية والأوروبية المتخصصة في الذكاء الاصطناعي، يمثّل هذا فئة جديدة من الإقصاء من السوق لا علاقة لها بالقدرة التقنية. إنه جيوسياسي بالتصميم. جاء رد الموردين العالميين بتوطين البيانات بشكل مكثف — بنشر مناطق سحابية (cloud regions) وتدريب نسخ نماذج محلية وهيكلة العقود عبر شركات تابعة محلية لتلبية متطلبات السيادة دون التخلي عن السوق.

كيف تُعيد قواعد المشتريات تشكيل استراتيجية الشركات الناشئة

العبء الامتثالي لمشتريات الذكاء الاصطناعي الحكومية ثقيل. يجب على المورّد الساعي للحصول على عقد فيدرالي استثمار موارد ضخمة في التوثيق والمراجعة القانونية والتدقيق الطرفي قبل كتابة سطر واحد من استجابة طلب تقديم العروض. يُعيد هذا هيكلة المشهد التنافسي. يمتلك اللاعبون الكبار — Microsoft وGoogle وAmazon وPalantir — بنية تحتية امتثالية قائمة ووحدات مبيعات حكومية متخصصة. الشركات الناشئة لا تمتلك ذلك.

تنتج عن هذا ثنائية: تختار الشركات الناشئة بصورة متزايدة إما التخصص الكامل في GovTech منذ اليوم الأول — ودمج الامتثال في بنيتها التقنية وحمضها النووي التنظيمي — أو تجنّب أسواق الحكومة كلياً والتركيز على مشترين من القطاع الخاص. تكتشف الشركات في مراحلها المتوسطة، التي افترضت أن العقود الحكومية ستأتي لاحقاً، أن مسار الامتثال أطول وأكثر تكلفةً مما توقعت.

ظهرت مجموعة صغيرة من موردي بنية تحتية الامتثال للذكاء الاصطناعي لسد هذا الفراغ: شركات تقدم تدقيقاً آلياً للذكاء الاصطناعي وتوليد بطاقات النظام ومنصات اختبار التحيز ولوحات تحكم لرصد الامتثال. تُعدّ من بين أسرع شرائح سوق خدمات الذكاء الاصطناعي نمواً تحديداً لأن قواعد المشتريات أوجدت طلباً إلزامياً.

إعلان

🧭 رادار القرار (منظور الجزائر)

البعد التقييم
الأهمية بالنسبة للجزائر مرتفعة — الحكومة الجزائرية مشترٍ رئيسي للتكنولوجيا؛ وضع معايير مشتريات الذكاء الاصطناعي الآن يُحدد أي الموردين يمكنهم خدمة المؤسسات العامة
البنية التحتية جاهزة؟ جزئياً — عمليات المشتريات الحكومية لتكنولوجيا المعلومات موجودة؛ المعايير الخاصة بالذكاء الاصطناعي غائبة
الكفاءات متوفرة؟ جزئياً — كوادر المشتريات في مجال تكنولوجيا المعلومات موجودة؛ القدرة على تقييم الذكاء الاصطناعي مفقودة
الإطار الزمني للعمل 6-12 شهراً
أصحاب المصلحة الرئيسيون وزارة المالية، ANJE، MESRS، ARPCE، مديرية الحكومة الإلكترونية
نوع القرار استراتيجي

خلاصة سريعة: إطار مشتريات الذكاء الاصطناعي الحكومي في الجزائر صفحة بيضاء — وضع متطلبات الشفافية واختبار التحيز وسيادة البيانات الآن سيُجنّب الارتهان للموردين ويُحمي المصلحة العامة مع تسارع اعتماد الذكاء الاصطناعي في الخدمات العامة.

المصادر والقراءات الإضافية