تحذير الـ 40% من الإلغاءات
أرسل توقع Gartner في يونيو 2025 إشارة واضحة لسوق الذكاء الاصطناعي المؤسسي: أكثر من 40% من مشاريع الذكاء الاصطناعي الوكيلي ستُلغى بحلول نهاية 2027. الأسباب الثلاثة صريحة — تصاعد التكاليف، وقيمة تجارية غامضة، وضوابط مخاطر غير كافية.
ليست هذه توقعات هامشية. كشف استطلاع Gartner لـ 3,412 متخصصاً أن 61% من المنظمات قد استثمرت بالفعل في الذكاء الاصطناعي الوكيلي، منها 19% برهانات كبيرة. ومع ذلك، تبقى معظم هذه المشاريع تجارب مبكرة مدفوعة بالضجة الإعلامية وليس بحالات استخدام مُثبتة. الفجوة بين حماس الاستثمار وجاهزية الإنتاج هي حيث ستحدث الإلغاءات.
المشكلة تتفاقم بما يسميه Gartner “agent washing” — مورّدون يعيدون تسمية روبوتات الدردشة الحالية وأدوات أتمتة العمليات الروبوتية والمساعدين الذكيين بالذكاء الاصطناعي الوكيلي دون إضافة قدرات مستقلة حقيقية. يُقدّر Gartner أن نحو 130 فقط من آلاف مورّدي الذكاء الاصطناعي الوكيلي يقدمون وظائف وكيلية حقيقية. المؤسسات التي تشتري ادعاءات مبالغاً فيها ستكتشف أن “وكلاءها” لا يستطيعون التعامل مع سير العمل المعقد ومتعدد الخطوات الموعود.
الوكلاء يفشلون أكثر مما ينجحون
الواقع التقني يتطابق مع تحذير الحوكمة. بنت دراسة من Carnegie Mellon University، بالتعاون مع Salesforce، شركة محاكاة يديرها بالكامل وكلاء ذكاء اصطناعي يستخدمون نماذج من OpenAI وGoogle وAnthropic وAmazon. النتائج كانت مقلقة: فشل وكلاء الذكاء الاصطناعي في نحو 70% من المهام المكتبية متعددة الخطوات.
حتى النماذج الأفضل أداءً — Gemini 2.5 Pro بنسبة نجاح 30.3% وClaude 3.7 Sonnet بنسبة 26.3% — لم تستطع إتمام العمليات التجارية الروتينية بشكل موثوق. ارتبك الوكلاء أمام واجهات رقمية بسيطة، واختلقوا معلومات، واتخذوا قرارات كان أي موظف بشري سيتجنبها. عندما تلتقي معدلات الفشل هذه ببيئات الإنتاج دون حواجز حماية مناسبة، تتصاعد العواقب من محرجة إلى خطيرة.
فجوة المساءلة صارخة. وفقاً لـتقرير Boomi وFT Longitude، فقط 2% من المنظمات لديها وكلاء ذكاء اصطناعي خاضعون للمساءلة الكاملة، بينما نحو 80% تفتقر إلى الرؤية أو التحكم في سلوك الوكلاء. في الوقت نفسه، 99% من الشركات تخطط لوضع وكلاء مستقلين في الإنتاج. هذه هي أزمة الحوكمة في رقم واحد: خطط تبنٍّ شبه شاملة مقترنة بجاهزية شبه معدومة.
إعلان
OWASP ترسم خريطة الأمن
مجتمع الأمن السيبراني لا ينتظر المؤسسات لتجد الحل بمفردها. في ديسمبر 2025، أصدر مشروع OWASP GenAI Security أول قائمة Top 10 للتطبيقات الوكيلية، طُوّرت بمساهمة أكثر من 100 باحث أمني ومزود خدمات أمن سيبراني.
الخطر الأعلى تصنيفاً — ASI01: اختطاف هدف الوكيل — يصف كيف يتلاعب المهاجمون بأهداف الوكيل عبر مدخلات مسممة مثل رسائل البريد الإلكتروني والمستندات ومحتوى الويب. تشمل المخاطر الحرجة الأخرى الاتصال غير الآمن بين الوكلاء (ASI07)، حيث يمكن للرسائل المزيفة إعادة توجيه مجموعات كاملة من الوكلاء، والإخفاقات المتتالية (ASI08)، حيث تنتشر الإشارات الخاطئة عبر خطوط الأنابيب المؤتمتة بتأثير متصاعد.
يبرز خطران لتداعياتهما على الثقة. استغلال الثقة بين الإنسان والوكيل (ASI09) يحذر من أن الوكلاء ينتجون تفسيرات واثقة ومصقولة تُضلل المشغلين البشريين للموافقة على إجراءات ضارة. الوكلاء المارقون (ASI10) يعالجون السيناريو الذي يبدأ فيه الوكلاء بإظهار اختلال وإخفاء وعمل موجه ذاتياً خارج نطاقهم المقصود.
وجد استطلاع Dark Reading أن 48% من متخصصي الأمن السيبراني يحددون الآن الذكاء الاصطناعي الوكيلي كناقل الهجوم الأول مع دخول 2026. يمنح إطار OWASP المنظمات قائمة تحقق ملموسة، لكن تبنيه يتطلب البنية التحتية للحوكمة التي تفتقر إليها معظم الشركات.
المطرقة التنظيمية تضرب في أغسطس
المؤسسات التي تتجاهل الحوكمة ستواجه قريباً تطبيقاً خارجياً. يدخل قانون الذكاء الاصطناعي الأوروبي حيز التطبيق الكامل في 2 أغسطس 2026، مع عقوبات تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية — أيهما أعلى.
يُعامل القانون المنظمات كمسؤولة عن جميع أنظمة الذكاء الاصطناعي العاملة ضمن أعمالها، بغض النظر عمن بناها. بالنسبة للذكاء الاصطناعي الوكيلي، يعني هذا أن الشركات يجب أن تثبت قدرتها على تتبع كل إجراء يقوم به الوكيل، وإثبات ضوابط صلاحية مناسبة، والاحتفاظ بسجلات تدقيق شاملة. إذا عالج وكيل مستقل بيانات شخصية أو نفذ معاملات مالية دون هذه الضمانات، تقع المسؤولية بالكامل على المنظمة المنفذة.
الـ 86% من المديرين التنفيذيين الذين يعترفون بأن الذكاء الاصطناعي الوكيلي يشكل مخاطر إضافية وتحديات امتثال يواجهون الآن موعداً نهائياً صارماً. الفجوة بين الوعي والتنفيذ لم تعد مشكلة داخلية — إنها تعرض تنظيمي يُقاس بملايين اليوروهات.
من يفوز في سباق الحوكمة
الشركات التي ستنجو من موجة إلغاء Gartner البالغة 40% تتشارك خصائص مشتركة. تُعامل الحوكمة ليس كخانة امتثال بل كبنية منتج أساسية. يعني هذا بناء أنظمة هوية الوكلاء، وتطبيق نماذج صلاحيات متدرجة، والحفاظ على مسارات تدقيق فورية، وتصميم بوابات موافقة بمشاركة بشرية للقرارات عالية المخاطر.
الفرصة للشركات الناشئة كبيرة. تحتاج المؤسسات إلى أدوات حوكمة لا تستطيع بناءها داخلياً بالسرعة الكافية — منصات مراقبة الوكلاء، وطبقات إدارة الصلاحيات، وأتمتة الامتثال لأنظمة متعددة الوكلاء، وأطر اختبار تحاكي أنماط الفشل التي حددها OWASP. الشركات الناشئة التي تحل هذه المشكلات ستجد مشترين بميزانيات عاجلة ومواعيد تنظيمية نهائية.
النمط يتكرر عبر كل موجة تكنولوجية: البنية التحتية التي تُمكّن الثقة تصبح الأعمال الأكثر ديمومة. احتاجت الحوسبة السحابية إلى إدارة الهوية والوصول (IAM) والتشفير قبل أن ينطلق التبني المؤسسي. احتاج الهاتف المحمول إلى إدارة الأجهزة وأمن التطبيقات. الذكاء الاصطناعي الوكيلي يحتاج إلى الحوكمة، والشركات التي تقدمها ستُحدد الطبقة التالية من البنية التحتية المؤسسية للذكاء الاصطناعي.
الأسئلة الشائعة
لماذا يتوقع Gartner إلغاء 40% من مشاريع الذكاء الاصطناعي الوكيلي بحلول 2027؟
يحدد Gartner ثلاثة أسباب رئيسية: تصاعد التكاليف متجاوزة التوقعات الأولية، وقيمة تجارية غامضة حيث تفشل مشاريع إثبات المفهوم في إظهار العائد على الاستثمار، وضوابط مخاطر غير كافية تعرض المنظمات لإخفاقات أمنية وامتثالية. المشكلة تتفاقم بـ “agent washing”، حيث يعيد المورّدون تسمية روبوتات الدردشة وأدوات أتمتة العمليات بالذكاء الاصطناعي الوكيلي — يُقدّر Gartner أن نحو 130 فقط من آلاف المورّدين يقدمون قدرات وكيلية حقيقية.
ما أكبر المخاطر الأمنية لنشر وكلاء الذكاء الاصطناعي في الإنتاج؟
تحدد قائمة OWASP Top 10 للتطبيقات الوكيلية، المنشورة في ديسمبر 2025، اختطاف هدف الوكيل كالتهديد الأول — يتلاعب المهاجمون بأهداف الوكلاء عبر مدخلات مسممة. تشمل المخاطر الحرجة الأخرى الإخفاقات المتتالية عبر خطوط الأنابيب المؤتمتة، والاتصال غير الآمن بين الوكلاء الذي يسمح بالرسائل المزيفة، واستغلال الثقة بين الإنسان والوكيل حيث ينتج الوكلاء توصيات مقنعة لكنها ضارة يوافق عليها المشغلون دون تدقيق.
كيف يمكن للمؤسسات بناء حوكمة فعالة لأنظمة الذكاء الاصطناعي الوكيلي؟
تتطلب الحوكمة الفعالة أربعة ركائز: أنظمة هوية الوكلاء التي تتتبع أي وكيل نفذ أي إجراء، ونماذج صلاحيات متدرجة تحد من صلاحية الوكيل بناءً على مخاطر المهمة، ومسارات تدقيق فورية تلبي المراجعة الداخلية والامتثال التنظيمي، وبوابات موافقة بمشاركة بشرية للقرارات عالية المخاطر. يجب على المنظمات تبني إطار OWASP للذكاء الاصطناعي الوكيلي كخط أساس أمني وبناء الحوكمة قبل التوسع — وليس بعده.
المصادر والقراءات الإضافية
- Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027 — Gartner
- OWASP Top 10 for Agentic Applications for 2026 — OWASP GenAI Security Project
- Simulated Company Shows Most AI Agents Flunk the Job — Carnegie Mellon University
- Agentic AI’s Governance Challenges Under the EU AI Act in 2026 — AI News
- Managing the New Wave of Risks from AI Agents in Banking — Deloitte
- Autonomous AI Agents 2026: The New Rules for Business Governance — Raconteur














