الحدس الذي تبيّن أنه خاطئ
طوال العام الماضي، كانت صناعة الذكاء الاصطناعي مهووسة بالوكلاء.
بدلاً من روبوت محادثة واحد يُجيب على الأسئلة، يبني المطورون الآن فرقاً من وكلاء الذكاء الاصطناعي: واحد يكتب الكود، وآخر يبحث عن المعلومات، وثالث يُخطط المهام، ورابع يُراجع النتائج. تشبه الفكرة شركة رقمية مُوظفة بالكامل بعمال برمجيين.
باختصار: على المؤسسات الجزائرية التي تستكشف وكلاء الذكاء الاصطناعي أن تعتمد افتراضياً على هندسة الوكيل الواحد للمهام التسلسلية، ولا تنشر أنظمة متعددة الوكلاء إلا لأحمال العمل القابلة فعلياً للتوازي. بالنظر لمحدودية موارد الحوسبة في الجزائر، فإن تجنب أعباء تعدد الوكلاء غير الضرورية يُحقق نتائج أفضل بتكلفة أقل.
الافتراض وراء هذا الاتجاه يبدو بديهياً: إذا كان وكيل ذكاء اصطناعي واحد قوياً، فإن مجموعة منهم تعمل معاً يجب أن تكون أفضل.
لكن مجموعة متنامية من الأبحاث تشير إلى أن هذا الافتراض قد يكون خاطئاً.
وجدت دراسة من باحثين في Google Research وGoogle DeepMind أن الأنظمة متعددة الوكلاء يمكن أن تؤدي أداءً أسوأ بشكل ملحوظ من وكيل ذكاء اصطناعي واحد في مهام معينة. في تجارب شملت 180 تكويناً عبر أربعة معايير مرجعية، خفّضت الإعدادات متعددة الوكلاء الأداء بنسبة 39% إلى 70% في مهام الاستدلال والتخطيط التسلسلي مقارنة بخطوط الأساس أحادية الوكيل.
تتحدى هذه النتائج إحدى الأفكار المركزية وراء الموجة الحالية من الذكاء الاصطناعي الوكيل — وتكشف عن مشكلة بدأ بناة أنظمة الذكاء الاصطناعي المعقدة يواجهونها للتو.
طفرة الوكلاء
أصبح وكلاء الذكاء الاصطناعي أحد أهم الاتجاهات في مجال الذكاء الاصطناعي.
تبني شركات كبرى بما فيها OpenAI وGoogle DeepMind وAnthropic أُطراً لدعم الأنظمة القائمة على الوكلاء. ومن المتوقع أن يصل سوق الذكاء الاصطناعي الوكيل إلى 98.26 مليار دولار بحلول 2033.
الجاذبية واضحة: بدلاً من كتابة كل خطوة في سير العمل، يمكن للمطورين نشر شبكة من العمال الاصطناعيين للتعامل مع العمليات المعقدة. وكيل يبحث، وآخر يصوغ، وثالث يُراجع، ومنسق يجمع النتائج.
لكن بناء هذه الأنظمة تبيّن أنه أصعب مما كان متوقعاً — بل وفي بعض الحالات، يأتي بنتائج عكسية.
عندما أدى المزيد من الوكلاء إلى نتائج أسوأ
لفهم كيفية توسع أنظمة الوكلاء، اختبر باحثو Google 180 تكويناً مختلفاً متعدد الوكلاء عبر أربعة معايير مرجعية، مع تقييم خمس هندسات وكلاء أساسية — وكيل واحد وأربعة أنواع متعددة الوكلاء (مستقلة، مركزية، لا مركزية، وهجينة) — مُطبقة عبر ثلاث عائلات من نماذج اللغة الكبيرة.
كانت النتائج مُخالفة للحدس.
بالنسبة للمهام التي يمكن تقسيمها بسهولة إلى مهام فرعية مستقلة — كالتحليل المالي حيث يفحص كل وكيل شركة مختلفة — أدت الأنظمة متعددة الوكلاء أداءً ممتازاً. في معايير الاستدلال المالي، حسّن التنسيق المركزي النتائج بنحو 80.9% مقارنة بالوكيل الواحد.
لكن عندما تطلبت المهام استدلالاً تسلسلياً، حيث تعتمد كل خطوة على سابقتها، انهار الأداء.
عبر هذه السيناريوهات، أدت كل هندسة متعددة الوكلاء تم اختبارها أداءً أسوأ من خط الأساس أحادي الوكيل — أحياناً بنسبة تصل إلى 70%.
لم يكن الخلل في الوكلاء الفرديين. بل كان في التعاون ذاته.
مشكلة التنسيق
عندما يتعاون وكلاء متعددون، يجب عليهم تبادل المعلومات باستمرار. كل وكيل يتلقى سياقاً جزئياً فقط، مما يعني أنه يجب أن يعتمد على ملخصات من وكلاء آخرين لفهم الصورة الكاملة.
تخلق هذه العملية مشكلة يصفها الباحثون بتجزئة المعلومات.
مع انتقال المعلومات بين الوكلاء، تُضغط التفاصيل أو تُفقد. ثم تنتشر سوء الفهم البسيطة عبر النظام. قد يُسيء وكيل تفسير مخرجات وكيل آخر، مُولّداً نتيجة معيبة يتعامل معها الوكيل التالي كحقيقة.
يُشبه التأثير لعبة الهاتف التي يلعبها الأطفال، حيث تتشوه الرسالة تدريجياً أثناء انتقالها من شخص لآخر — إلا أنه في أنظمة الذكاء الاصطناعي، يحدث التشوه بسرعة الآلة ويمكن أن يتراكم بشكل أُسّي.
وجد باحثو Google أن أعباء الاتصال تُجزّئ عملية الاستدلال، تاركة “ميزانية إدراكية” غير كافية للمهمة الفعلية. في بعض الهندسات المدروسة، ضخّمت الوكلاء المستقلة الأخطاء بشكل ملحوظ مقارنة بنهج التنسيق المركزي. عزا الباحثون ذلك إلى التوتر الأساسي بين استقلالية الوكيل وتماسك النظام: كلما عمل الوكلاء بشكل مستقل أكثر، زاد خطر تراكم أخطائهم الفردية بدلاً من إلغائها.
التوازي مقابل التسلسل: التمييز الجوهري
تُبرز الأبحاث تمييزاً حاسماً يُحدد ما إذا كانت الأنظمة متعددة الوكلاء تُساعد أم تُضر.
المهام المتوازية يمكن تقسيمها إلى مهام فرعية مستقلة يتعامل معها وكلاء متعددون في وقت واحد. تشمل الأمثلة تحليل مستندات متعددة، وتنفيذ استعلامات بيانات موزعة، أو تقييم سيناريوهات مختلفة بالتوازي. لأن الوكلاء يعملون بشكل مستقل ويجمعون النتائج لاحقاً، يمكن للتعاون تحسين الأداء فعلاً.
المهام التسلسلية تتطلب استدلالاً صارماً خطوة بخطوة حيث تعتمد كل خطوة على سابقتها. تشمل الأمثلة تصحيح أخطاء البرمجيات، والتخطيط الاستراتيجي، وسلاسل الاستدلال الطويلة، وعمليات اتخاذ القرار متعددة الخطوات. تعتمد هذه المهام على الحفاظ على سياق متسق عبر كل خطوة — وهو أمر يصبح أصعب بشكل كبير عند إشراك وكلاء متعددين.
الخلاصة ليست أن الأنظمة متعددة الوكلاء عديمة الفائدة. بل أن بنية المهمة هي ما يُحدد ما إذا كانت إضافة وكلاء تُساعد أم تُضر. إضافة وكلاء لمشكلة متوازية يمكن أن تُسرّع النتائج. إضافة وكلاء لمشكلة تسلسلية يمكن أن تُدمرها.
إعلان
لماذا اعتقدت الصناعة العكس
لم ينشأ افتراض أن المزيد من الوكلاء يعني نتائج أفضل عشوائياً.
لسنوات، كان النمط السائد في الذكاء الاصطناعي هو أن التوسع يُحسّن الأداء. النماذج الأكبر تؤدي أفضل. المزيد من بيانات التدريب يُحسّن الدقة. المزيد من قوة الحوسبة يُنتج نتائج أقوى. بدا منطقياً أن المزيد من الوكلاء سيتبع القاعدة نفسها.
أظهرت أبحاث سابقة في التعاون بين أنظمة الذكاء الاصطناعي أن فرق النماذج يمكن أن تتفوق على النماذج الفردية من خلال الاستدلال الجماعي — نتيجة عززت الميل لبناء شبكات وكلاء أكبر.
لكن تلك التجارب ركّزت غالباً على مهام تستفيد طبيعياً من التوازي. تشير الأبحاث الجديدة إلى أن بنية المهمة أهم من عدد الوكلاء.
التمييز دقيق لكنه مهم: التوسع ينجح عندما تُضيف قدرة مستقلة. يفشل عندما تُضيف أعباء تنسيق لعملية تسلسلية بطبيعتها.
تأكيد من الواقع
الدراسات الأكاديمية ليست المكان الوحيد الذي تظهر فيه حدود تعدد الوكلاء.
في تجربة أجراها Microsoft Research عام 2025 تُدعى Magentic Marketplace، بنى الباحثون سوقاً إلكترونياً محاكاً مأهولاً بالكامل بوكلاء ذكاء اصطناعي يعملون كمشترين وبائعين. شملت التجربة 100 وكيل عميل يتفاعلون مع 300 وكيل أعمال عبر مهام مثل طلب العشاء وفقاً لتفضيلات المستخدم.
كشفت النتائج عن عدة نقاط ضعف: عانى الوكلاء في تنسيق الأدوار عند طلب التعاون نحو هدف مشترك، وتدهور الأداء بشكل حاد مع زيادة الخيارات المتاحة لوكلاء العملاء، واستطاعت الأعمال التجارية استخدام تقنيات معينة للتلاعب بوكلاء العملاء لشراء منتجاتها. خلص الباحثون إلى أن وكلاء الذكاء الاصطناعي لا يزالون بحاجة إلى توجيه بشري كبير للعمل بفعالية في البيئات المعقدة والمفتوحة.
ظهرت أنماط مماثلة في عمليات النشر المؤسسية. وفقاً لأبحاث Boston Consulting Group حول الذكاء الاصطناعي الوكيل، تواجه الشركات التي تنشر أنظمة متعددة الوكلاء إخفاقات في التنسيق وانحراف الأهداف وأنماط سلوك ناشئة يصعب التنبؤ بها. يُؤكد BCG أن بيئات الاختبار يجب أن تُظهر مشكلات التفاعل متعدد الوكلاء، ووجد استطلاع تنفيذي من MIT Sloan/BCG أن 69% من المديرين التنفيذيين يوافقون على أن الذكاء الاصطناعي الوكيل يتطلب مناهج إدارية جديدة تماماً.
نهضة الوكيل الواحد
تُحفز هذه النتائج تحولاً هادئاً في هندسة الذكاء الاصطناعي.
تمتلك نماذج اللغة الكبيرة الحديثة نوافذ سياق ضخمة — بعضها يتجاوز مليون رمز — إلى جانب قدرات استدلال مُحسّنة واستخدام مدمج للأدوات. بسبب هذه التحسينات، قد يتفوق وكيل واحد قوي أحياناً على فرق وكلاء معقدة ببساطة عبر الحفاظ على سياق متسق طوال المهمة.
يرى بعض الباحثين أن أنظمة الذكاء الاصطناعي المستقبلية قد تعتمد أكثر على وكلاء مفردين أقوياء بقدرات تخطيط متطورة، مُعززين باستخدام مُستهدف للأدوات، بدلاً من شبكات كبيرة من الوكلاء المتخصصين.
أشار المدير السابق للذكاء الاصطناعي في Tesla، Andrej Karpathy، إلى أن وكلاء الذكاء الاصطناعي الحاليين يفتقرون إلى القدرات الإدراكية الكافية وأن حل المشكلات المتعلقة بالوكلاء سيستغرق عقداً — مما يشير إلى أن الأنظمة الفردية الأبسط والأكثر قدرة قد تتفوق على تنسيق الوكلاء المعقد متعدد الأطراف في كثير من السيناريوهات العملية اليوم.
متى لا تزال الأنظمة متعددة الوكلاء منطقية
رغم هذه التحديات، تظل الهندسات متعددة الوكلاء قيّمة في سياقات محددة.
تعمل جيداً عندما يمكن توزيع المهام فعلاً بالتوازي: البحث الموزع عبر مصادر متعددة، وتحليل البيانات واسع النطاق، ومراقبة الأنظمة المعقدة ذات المكونات المستقلة العديدة، والمحاكاة التي تتضمن فاعلين متعددين.
الرؤية الجوهرية هي أن هندسة الوكلاء يجب أن تتوافق مع بنية المهمة. نشر نظام متعدد الوكلاء على مشكلة تسلسلية ليس مجرد هدر — بل يمكن أن يُدهور الأداء فعلياً.
يستكشف الباحثون الآن استراتيجيات جديدة لتخفيف تكاليف التنسيق، بما في ذلك أنظمة مركزية قائمة على المدير حيث يُشرف وكيل واحد على الآخرين، وبروتوكولات اتصال مُحسّنة مثل Agent2Agent (A2A)، وخوارزميات أفضل لتحديد ما إذا كان ينبغي التعامل مع المهمة بوكيل واحد أم بعدة وكلاء تلقائياً.
الدرس المستفاد
دفع الحماس حول وكلاء الذكاء الاصطناعي كثيراً من المطورين للافتراض أن بناء فرق كبيرة من الوكلاء المستقلين هو المستقبل الحتمي للذكاء الاصطناعي.
لكن الأبحاث تروي قصة مختلفة. إضافة المزيد من الوكلاء يمكن أن تزيد أعباء الاتصال، وتُجزّئ المعلومات، وتُضخّم الأخطاء، وتُدهور الأداء العام.
في مهام معينة، قد يتفوق وكيل ذكاء اصطناعي واحد مُصمم بشكل جيد على شبكة كاملة من الوكلاء المتعاونين.
الدرس ليس أن أنظمة الوكلاء عديمة الفائدة — بل أن توسيع الذكاء أعقد من مجرد إضافة المزيد من الوكلاء. التحدي الهندسي الحقيقي هو تعلم متى يجب توزيع العمل ومتى يجب إبقاؤه مركزياً.
مع استمرار تطور الذكاء الاصطناعي، لن تكون الأنظمة الناجحة هي تلك التي تمتلك أكبر عدد من الوكلاء. بل ستكون تلك التي تنشر الهندسة الصحيحة للمشكلة الصحيحة.
إعلان
رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الأهمية بالنسبة للجزائر | عالية — المؤسسات والشركات الناشئة الجزائرية التي تتبنى وكلاء الذكاء الاصطناعي بحاجة لفهم أن التوسع العشوائي في تعدد الوكلاء يُهدر الموارد ويُدهور النتائج |
| جاهزية البنية التحتية؟ | جزئية — البنية التحتية للحوسبة والسحابة في الجزائر محدودة، مما يجعل الهندسات الفعّالة أحادية الوكيل أكثر قيمة مقارنة بالأسواق الغنية بالموارد |
| توفر المهارات؟ | لا — عدد قليل من مهندسي الذكاء الاصطناعي الجزائريين لديهم خبرة عملية في تصميم أنظمة متعددة الوكلاء أو تقييم متى تكون هندسة تعدد الوكلاء مناسبة مقابل الوكيل الواحد |
| الجدول الزمني للتنفيذ | فوري — الفرق التي تبني حالياً سير عمل بوكلاء الذكاء الاصطناعي يجب أن تتحقق مما إذا كانت الإعدادات متعددة الوكلاء مُبررة ببنية المهمة |
| الأطراف المعنية | فرق هندسة الذكاء الاصطناعي، المديرون التقنيون في شركات التقنية الجزائرية، مختبرات أبحاث الذكاء الاصطناعي بالجامعات، وحدات التحول الرقمي في Sonatrach وSonelgaz |
| نوع القرار | تكتيكي — استخدام تحليل بنية المهمة لاختيار هندسة الوكلاء الصحيحة قبل الاستثمار في تنسيق معقد متعدد الوكلاء |
خلاصة: على المؤسسات الجزائرية التي تستكشف وكلاء الذكاء الاصطناعي أن تعتمد افتراضياً على هندسات الوكيل الواحد لمهام الاستدلال التسلسلي، ولا تنشر أنظمة متعددة الوكلاء إلا لأحمال العمل القابلة فعلياً للتوازي. بالنظر لمحدودية موارد الحوسبة في الجزائر، فإن تجنب أعباء تعدد الوكلاء غير الضرورية يمكن أن يُحقق نتائج أفضل بتكلفة أقل.
المصادر والقراءات الإضافية
- Towards a Science of Scaling Agent Systems — Google Research (arXiv)
- Agentic AI Market Projected to Reach $98.26 Billion by 2033 — DataM Intelligence
- Encouraging Divergent Thinking in Large Language Models Through Multi-Agent Debate — arXiv
- A2A: A New Era of Agent Interoperability — Google Developers Blog
- Magentic Marketplace: Studying Agentic Markets — Microsoft Research
- What Happens When AI Stops Asking Permission — Boston Consulting Group





إعلان