صعود الوكيل المستقل — وظلّه

يشهد مشهد البرمجيات المؤسسية تحولاً جذرياً هو الأكثر عمقاً منذ عصر الانتقال إلى الحوسبة السحابية. فأنظمة الذكاء الاصطناعي الوكيل (Agentic AI) — وهي وكلاء مستقلون قادرون على التفكير والتخطيط وتنفيذ مهام متعددة الخطوات بأدنى حد من الإشراف البشري — انتقلت من العروض التوضيحية البحثية إلى النشر الإنتاجي بسرعة مذهلة. وفقاً لتقرير Cyber Pulse الصادر عن Microsoft في فبراير 2026، فإن أكثر من 80% من شركات Fortune 500 تستخدم الآن وكلاء ذكاء اصطناعي نشطين، كثير منها مبنيّ بأدوات التطوير منخفضة ومعدومة الشيفرة، مع تسجيل نشاط إنتاجي فعلي خلال الـ 28 يوماً الماضية.

لكن هذه السرعة خلقت أزمة أمنية لا تزال المؤسسات في بداية مواجهتها. فقد كشف استطلاع لقراء Dark Reading أن 48% من المتخصصين في الأمن السيبراني يعتبرون الذكاء الاصطناعي الوكيل والأنظمة المستقلة أهم ناقل للهجمات مع دخول عام 2026 — متفوقاً على تهديدات التزييف العميق ومخاوف المصادقة بدون كلمة مرور. والقلق ليس نظرياً. فسطح الهجوم الذي تقدمه الوكلاء المستقلون يختلف جوهرياً عن أي شيء واجهته فرق الأمن من قبل: هذه ليست تطبيقات ثابتة بأنماط مدخلات/مخرجات متوقعة، بل أنظمة ديناميكية تتخذ قرارات وتستدعي أدوات وتصل إلى مخازن البيانات وتتفاعل مع خدمات خارجية بمبادرتها الخاصة.

الفجوة بين سرعة النشر والجاهزية الأمنية صارخة. وفقاً لتقرير Gravitee حول حالة أمن وكلاء الذكاء الاصطناعي 2026، الذي شمل استطلاع 919 مشاركاً من المناصب القيادية والتقنية، فإن 3.9% فقط من المؤسسات تفيد بأنها تراقب أكثر من 80% من وكلاء الذكاء الاصطناعي المنشورين لديها. في المتوسط، يتم رصد أو تأمين 47.1% فقط من أسطول الوكلاء في المؤسسة. أما الوكلاء المتبقون فيعملون بنقاط عمياء كبيرة — يجرون استدعاءات لواجهات برمجة التطبيقات (API) ويصلون إلى قواعد البيانات ويولّدون مخرجات لا يراجعها أي إنسان في الوقت الفعلي.

تشريح سطح هجوم الذكاء الاصطناعي الوكيل

يتطلب فهم سبب ضعف أنظمة الذكاء الاصطناعي الوكيل بشكل فريد فحص بنيتها المعمارية. فعلى خلاف البرمجيات التقليدية، يتكون نظام الذكاء الاصطناعي الوكيل عادةً من عدة مكونات مترابطة، يقدم كل منها نواقل هجوم مميزة.

نواة التفكير

في قلب كل وكيل يوجد نموذج لغوي كبير (LLM) يفسر التعليمات ويفكر في المهام ويولّد الخطط. هذه النواة التفكيرية عرضة لهجمات حقن الأوامر (Prompt Injection) — وهي ممارسة تضمين تعليمات خبيثة ضمن مدخلات تبدو سليمة يعالجها النموذج. وعلى خلاف حقن SQL الذي يستغل عيوب تحليل مفهومة جيداً، فإن حقن الأوامر يستغل عدم القدرة الأساسية للنماذج اللغوية الكبيرة الحالية على التمييز الموثوق بين التعليمات الموثوقة والبيانات غير الموثوقة. وقد صنّف مشروع OWASP هذا كخطر رقم واحد (LLM01) في قائمته لأهم عشرة مخاطر لتطبيقات النماذج اللغوية الكبيرة، مما يعكس خطورته وانتشاره.

الوصول إلى الأدوات وواجهات برمجة التطبيقات

تستمد الأنظمة الوكيلة قوتها من استخدام الأدوات — القدرة على استدعاء واجهات برمجة التطبيقات والاستعلام من قواعد البيانات وتنفيذ الشيفرة وقراءة الملفات وكتابتها والتفاعل مع الخدمات الخارجية. كل ربط بأداة يخلق مساراً محتملاً لتصعيد الصلاحيات. إذا تمكن مهاجم من التلاعب بتفكير الوكيل لاستدعاء أداة لا ينبغي له استخدامها، أو لتمرير معاملات خبيثة لأداة مشروعة، فقد تكون العواقب وخيمة. وكيل لديه صلاحية الكتابة في قاعدة بيانات يُخدع لتنفيذ استعلام تدميري ليس سيناريو افتراضياً؛ بل هو مجال استغلال نشط.

الذاكرة والسياق

تحتفظ العديد من الأنظمة الوكيلة بذاكرة دائمة — سجلات المحادثات والوثائق المسترجعة والنتائج المخبّأة — تُستخدم في اتخاذ القرارات المستقبلية. تقوم هجمات تسميم الذاكرة بحقن معلومات زائفة أو خبيثة في نافذة سياق الوكيل أو مخزن ذاكرته طويلة المدى، مما يدفعه لاتخاذ قرارات فاسدة في التفاعلات المستقبلية. ولأن الذاكرة المسمومة تستمر عبر الجلسات، فإن حقنة ناجحة واحدة يمكن أن يكون لها تأثيرات متراكمة مع مرور الوقت.

الاتصال بين الوكلاء المتعددين

تستخدم أكثر عمليات النشر المؤسسية تطوراً بنى وكلاء متعددين حيث يتعاون وكلاء متخصصون — يمرر وكيل بحث نتائجه إلى وكيل تحليل، الذي يسلّمها بدوره إلى وكيل تقارير. كل نقطة تسليم هي حدود ثقة يمكن للمهاجمين استغلالها. يمكن لوكيل مخترق في المنبع أن يتسبب في تدفق تعليمات خبيثة عبر السلسلة بأكملها، ولا تملك الوكلاء في المصبّ طريقة موثوقة للتحقق من سلامة ما تتلقاه. وقد حدد مشروع OWASP في قائمته لأهم عشرة مخاطر للتطبيقات الوكيلة، الصادرة أواخر 2025، هذا تحديداً كمخاطرة ASI08 — الإخفاقات المتتالية — حيث تنتشر الإشارات الزائفة عبر خطوط الأنابيب المؤتمتة بتأثير متصاعد.

سلسلة توريد وكلاء الذكاء الاصطناعي: الاستغلال في الواقع

تم التحقق من المخاطر النظرية لاستغلال الذكاء الاصطناعي الوكيل من خلال سلسلة من الحوادث الواقعية التي استهدفت منظومة وكلاء الذكاء الاصطناعي. ولا يقتصر سطح الهجوم على الوكلاء أنفسهم — بل يمتد إلى الأدوات والبروتوكولات والخدمات الخارجية التي يعتمدون عليها.

في أواخر 2025، كشفت OpenAI أن مهاجماً حصل على وصول غير مصرح به عبر مزود التحليلات الخارجي Mixpanel، واستخرج مجموعة بيانات تحتوي على معلومات محدودة عن عملاء واجهة برمجة التطبيقات — بما في ذلك الأسماء وعناوين البريد الإلكتروني والمواقع التقريبية وتفاصيل المتصفح. وعلى الرغم من عدم كشف أي محتوى محادثات أو مفاتيح API، فقد أظهرت الحادثة كيف يمكن للحلقة الأضعف في سلسلة توريد الذكاء الاصطناعي أن تعرّض بيانات المستخدمين للخطر على نطاق واسع. وقد أزالت OpenAI لاحقاً Mixpanel من خدماتها الإنتاجية.

كما أدى انتشار بروتوكول سياق النموذج (Model Context Protocol – MCP) — وهو البروتوكول الذي يتيح لوكلاء الذكاء الاصطناعي التفاعل مع مصادر البيانات والأدوات الخارجية — إلى فئة جديدة من الثغرات. وقد حدد باحثو الأمن أن المطورين المتسارعين في نشر خوادم MCP غالباً ما يتخطون المصادقة والتفويض المناسبين، مما يخلق أبواباً مفتوحة للمهاجمين. وأثبتت ثغرة مسجلة تحت الرقم CVE-2025-53773 أنه يمكن التلاعب بأداة VS Code وGitHub Copilot Agent لإنشاء ملفات دون تفويض المستخدم، مما قد يؤدي إلى اختراق كامل للجهاز.

تكشف هذه الحوادث عن نقاط ضعف منهجية: عدم كفاية المراجعات الأمنية في نقطة زمنية واحدة للمكونات التي تتحدث ديناميكياً، والصلاحيات المفرطة التي تُمنح للوكلاء بشكل روتيني، وغياب المراقبة أثناء التشغيل لتفاعلات الوكلاء مع الأدوات، وانعدام الأطر الأمنية الموحدة لمنظومات الوكلاء. وقد وجد تقرير Gravitee أن 88% من الشركات تقول إنها تعرضت بالفعل أو اشتبهت في حادثة أمنية أو تتعلق بخصوصية البيانات مرتبطة بوكلاء الذكاء الاصطناعي خلال الاثني عشر شهراً الماضية.

إعلان

فجوة المراقبة: التحليق في الظلام على نطاق واسع

ربما يكون البُعد الأكثر إثارة للقلق في أزمة أمن الذكاء الاصطناعي الوكيل هو عجز المراقبة. يستفيد أمن التطبيقات التقليدي من عقود من تطور الأدوات — أنظمة SIEM ومنصات EDR ومراقبة الشبكات ومعايير التسجيل الراسخة. أما عالم الذكاء الاصطناعي الوكيل فيفتقر إلى هذه البنية التحتية بشكل شبه كامل.

تعكس نسبة 3.9% — حصة المؤسسات التي تراقب أكثر من 80% من وكلائها المنشورين — ليس مجرد إهمال بل فجوة أدوات جوهرية. فمعظم منصات المراقبة لم تُصمم لتتبع السلوك غير الحتمي والمعتمد على السياق للوكلاء المستقلين. وكيل يستعلم من قاعدة بيانات العملاء قد يكون ينفذ مهمة مشروعة أو يستجيب لهجوم حقن أوامر، والتمييز بين الحالتين يتطلب فهم سلسلة التفكير الكاملة التي أدت إلى الإجراء.

تتضافر عدة عوامل لتعقيد تحدي المراقبة. أولاً، غالباً ما تعمل الوكلاء عبر أنظمة وواجهات برمجة تطبيقات متعددة، مولّدةً سجلات بتنسيقات متباينة يصعب ربطها. ثانياً، عملية التفكير ذاتها — سلسلة الأفكار التي تقود الوكيل من التعليمات إلى الفعل — عادةً لا تُسجَّل بطريقة ذات صلة أمنية. ثالثاً، نشرت العديد من المؤسسات وكلاء عبر قنوات الذكاء الاصطناعي الظلّي — تُفيد Microsoft أن 29% من الموظفين لجأوا بالفعل إلى وكلاء ذكاء اصطناعي غير مُعتمدين لمهام العمل — حيث تُشغّل فرق أو مطورون أفراد وكلاء دون رقابة مركزية.

النتيجة هي بيئة تملك فيها معظم المؤسسات رؤية محدودة لما يفعله وكلاؤها، وما البيانات التي يصلون إليها، وما الأدوات التي يستدعونها، وما إذا كان سلوكهم ينحرف عن الأنماط المقصودة. هذا يعادل أمنياً نشر مئات الموظفين الجدد بصلاحيات مدير دون أي سجل تدقيق.

استراتيجيات الدفاع: بناء حزمة أمن الذكاء الاصطناعي الوكيل

يتطلب تأمين أنظمة الذكاء الاصطناعي الوكيل نهجاً جديداً يجمع بين مبادئ أمن التطبيقات وإدارة الهوية والوصول وأبحاث سلامة الذكاء الاصطناعي. تبرز عدة أُطر عمل، رغم أن أياً منها لم يبلغ النضج أو مستوى الاعتماد الذي يتطلبه مشهد التهديدات.

مبدأ الصلاحيات الدنيا بشكل افتراضي

أكثر التدابير الدفاعية تأثيراً هو تقييد صلاحيات الوكلاء إلى الحد الأدنى المطلوب لمهمتهم المحددة. يعني هذا الابتعاد عن النمط الشائع المتمثل في منح الوكلاء وصولاً واسعاً لواجهات برمجة التطبيقات، وبدلاً من ذلك تطبيق نطاقات صلاحيات دقيقة ومحددة حسب المهمة. وكيل يلخّص ملاحظات العملاء يجب ألا يملك صلاحية الكتابة في قاعدة بيانات العملاء، بغض النظر عن مدى ملاءمة ذلك لتوسيع الميزات مستقبلاً.

تعقيم المدخلات وإنفاذ الحدود

من الضروري معاملة جميع المدخلات الخارجية للوكلاء على أنها عدائية محتملة. يشمل ذلك ليس فقط المدخلات المباشرة من المستخدم بل أيضاً الوثائق المسترجعة واستجابات واجهات برمجة التطبيقات ومحتوى البريد الإلكتروني والبيانات من أي مصدر يعالجه الوكيل. ينبغي لآليات إنفاذ الحدود — التي تُسمى غالباً “حواجز الأمان” (Guardrails) — التحقق من إجراءات الوكيل مقابل سياسات محددة مسبقاً قبل التنفيذ. إذا حاول وكيل الوصول إلى مورد خارج نطاقه المسموح، يجب حظر الإجراء وتمييزه للمراجعة.

المراقبة السلوكية أثناء التشغيل

تحتاج المؤسسات إلى أدوات مراقبة مخصصة يمكنها تتبع سلوك الوكلاء في الوقت الفعلي واكتشاف الشذوذ. يشمل ذلك تسجيل جميع استدعاءات الأدوات بتفاصيل المعاملات الكاملة، وتتبع أنماط الوصول للبيانات، ومراقبة التسلسلات غير المعتادة من الإجراءات، والتنبيه عند الانحراف عن خطوط الأساس السلوكية المعتمدة. وقد تحركت شركات الأمن السيبراني الكبرى بقوة في هذا المجال عبر الاستحواذات: استحوذت Palo Alto Networks على Protect AI بقيمة تقدر بـ 650-700 مليون دولار في 2025، واستحوذت Cisco على Robust Intelligence بقيمة 400 مليون دولار، واستحوذت Check Point على Lakera بحوالي 300 مليون دولار — موجة توحيد تشير إلى إلحاح المشكلة وعدم نضج الحلول المستقلة في آن واحد.

هوية الوكيل والمصادقة

يجب أن يملك كل وكيل هوية فريدة قابلة للتدقيق مع بيانات اعتماد مرتبطة تتبع نفس ممارسات إدارة دورة الحياة المطبقة على المستخدمين البشريين. يعني هذا تدوير بيانات الاعتماد بانتظام وانتهاء صلاحية الجلسات والقدرة على إلغاء وصول الوكيل فوراً في حال الاشتباه بالاختراق. كما يجب أن تطبق أنظمة الوكلاء المتعددين مصادقة متبادلة عند كل نقطة تسليم.

أمن سلسلة التوريد لمنظومات الوكلاء

أظهرت الحوادث الواقعية في 2025 أن سلسلة توريد الوكلاء تحتاج إلى نفس الصرامة المطبقة على سلاسل توريد البرمجيات التقليدية. يشمل ذلك التوقيع الرقمي للإضافات والأدوات، وقوائم مكونات البرمجيات (SBOM) لتبعيات الوكلاء، والفحص الأمني المستمر للمكونات الخارجية بما فيها خوادم MCP، وبيئات التنفيذ المعزولة التي تحد من نطاق ضرر أي إضافة مخترقة.

الإنسان في الحلقة للإجراءات عالية المخاطر

بالنسبة للإجراءات ذات العواقب الكبيرة — المعاملات المالية وحذف البيانات وتغيير الصلاحيات والاتصالات الخارجية — يظل الحفاظ على خطوة موافقة بشرية شبكة أمان حاسمة. التحدي هو تصميم نقاط التحقق هذه بحيث لا تلغي مكاسب الكفاءة التي حفّزت نشر الوكلاء أصلاً. تقدم المناهج القائمة على المخاطر التي تتطلب موافقة بشرية فقط للإجراءات التي تتجاوز حدود حساسية معينة حلاً وسطاً عملياً.

الطريق أمامنا: المعايير والتنظيم وسباق التسلح

يتطور مشهد أمن الذكاء الاصطناعي الوكيل بنفس سرعة التكنولوجيا ذاتها وعدم قابليتها للتنبؤ. وستشكّل عدة تطورات المسار على المدى القريب.

بدأت هيئات المعايير بما فيها NIST وOWASP في تطوير أُطر عمل مخصصة لأمن الذكاء الاصطناعي الوكيل. أصدرت OWASP قائمتها المخصصة لأهم عشرة مخاطر للتطبيقات الوكيلة أواخر 2025، محددةً المخاطر من الإخفاقات المتتالية إلى الوكلاء المارقين. وبشكل منفصل، أطلقت NIST مبادرة معايير وكلاء الذكاء الاصطناعي التي تركز على الضمانات وإدارة المخاطر وأساليب التقييم للأنظمة المستقلة، مع فترة تعليق عام مفتوحة حتى مارس 2026 ومسودة عامة أولى متوقعة بعدها بفترة قصيرة.

على الصعيد التنظيمي، يعامل نظام التصنيف القائم على المخاطر في قانون الذكاء الاصطناعي الأوروبي (EU AI Act) العديد من عمليات نشر الذكاء الاصطناعي الوكيل على أنها عالية المخاطر عندما تعمل كمكونات سلامة أو تعمل في مجالات مدرجة كالتوظيف وإنفاذ القانون أو البنية التحتية الحيوية. يستدعي تصنيف المخاطر العالية متطلبات الرقابة البشرية والتسجيل الشامل والوثائق التقنية والشفافية. ولا تزال التبعات العملية لهذه المتطلبات على عمليات نشر الوكلاء في المؤسسات قيد الصياغة، لكنها ستدفع حتماً الاستثمار في قدرات المراقبة والحوكمة المفتقدة حالياً.

لا يمكن تجاهل البُعد العدائي. وجد تقرير CrowdStrike للتهديدات العالمية 2026 أن الهجمات المعززة بالذكاء الاصطناعي ازدادت بنسبة 89% مقارنة بالعام السابق، حيث يسلّح الخصوم الذكاء الاصطناعي في الاستطلاع وسرقة بيانات الاعتماد والتهرب. نفس قدرات الذكاء الاصطناعي الوكيل التي تستخدمها المؤسسات لتعزيز الإنتاجية متاحة للجهات الفاعلة المعادية لأتمتة الهجمات والهندسة الاجتماعية على نطاق واسع. هذه ليست مشكلة ستُحل مرة واحدة — إنها سباق تسلح مستمر يتطلب استثماراً مستداماً في البحث والأدوات والكفاءات.

بالنسبة للمؤسسات التي تنشر الذكاء الاصطناعي الوكيل اليوم، الأمر واضح: عاملوا أمن الوكلاء بنفس جدية أمن الحوسبة السحابية، واستثمروا في الرؤية والمراقبة قبل توسيع النشر، واقبلوا أن راحة الوكلاء المستقلين تأتي مع مسؤولية حوكمتهم. المؤسسات التي تبني هذا الانضباط الآن ستكون الأفضل استعداداً للاستفادة من الإمكانات التحويلية للذكاء الاصطناعي الوكيل دون أن تصبح من ضحاياه.

إعلان

🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الأهمية بالنسبة للجزائر عالية — تُولي الاستراتيجية الوطنية للأمن السيبراني 2025-2029 أولوية لحماية البنية التحتية الرقمية، ويتسارع اعتماد وكلاء الذكاء الاصطناعي عالمياً. تواجه المؤسسات الجزائرية التي تتبنى أدوات الذكاء الاصطناعي الوكيل نفس الفجوات الأمنية التي يواجهها نظراؤها حول العالم.
جاهزية البنية التحتية؟ جزئية — توفر وكالة أمن أنظمة المعلومات (ASSI) رقابة على المستوى الوطني للأمن السيبراني، والمركز الوطني للبيانات ومشاريع السحابة السيادية قيد التنفيذ. غير أن أدوات الأمان المخصصة للذكاء الاصطناعي والبنية التحتية لمراقبة الوكلاء لا تزال ناشئة.
توفر الكفاءات؟ جزئية — تعمل الجزائر على توسيع التدريب المهني في الأمن السيبراني (أنشأ المرسوم الرئاسي 26-07 وحدات أمن سيبراني مخصصة في 2026)، لكن أمن الذكاء الاصطناعي الوكيل تخصص دقيق يتطلب استثماراً إضافياً في التعليم وتطوير القوى العاملة.
الجدول الزمني للتحرك 6-12 شهراً — يجب على المؤسسات الجزائرية البدء في تطوير أُطر حوكمة الذكاء الاصطناعي وسياسات أمن الوكلاء الآن، قبل الاعتماد الأوسع للذكاء الاصطناعي الوكيل.
أصحاب المصلحة الرئيسيون مسؤولو أمن المعلومات وفرق الأمان في المؤسسات الجزائرية، وكالة أمن أنظمة المعلومات، وزارة الاقتصاد الرقمي، برامج الأمن السيبراني الجامعية، الشركات الناشئة الجزائرية في مجال الذكاء الاصطناعي
نوع القرار استراتيجي — يتطلب تحديث سياسات الأمان المؤسسية والاستثمار في قدرات مراقبة الذكاء الاصطناعي قبل توسيع نشر الوكلاء.

خلاصة سريعة: توفر الاستراتيجية السيادية للأمن السيبراني في الجزائر أساساً سياساتياً متيناً، لكن فجوة أمن الذكاء الاصطناعي الوكيل مشكلة عالمية تتطلب أدوات ومهارات متخصصة. يجب على المؤسسات الجزائرية معاملة حوكمة أمن الوكلاء كشرط مسبق — وليس فكرة لاحقة — لاعتماد الذكاء الاصطناعي، ويجب على فرق الأمان التعرف على أُطر OWASP للذكاء الاصطناعي الوكيل قبل نشر الأنظمة المستقلة في بيئات الإنتاج.

المصادر والقراءات الإضافية