في يناير 2026، أعلنت Klarna أن وكيل خدمة العملاء المدعوم بالذكاء الاصطناعي لديه يؤدي الآن عمل 853 موظفاً بدوام كامل ووفّر للشركة 60 مليون دولار. في الدورة المالية ذاتها، أقرّ الرئيس التنفيذي Sebastian Siemiatkowski علناً بأن الاستراتيجية كلّفت الشركة ما هو أثمن بكثير مما وفّرته. وكان لا يزال يحاول استعادته.
هذه ليست قصة أخرى عن مبالغة في تقدير الذكاء الاصطناعي. إنها العكس تماماً. الذكاء الاصطناعي أدى مهمته ببراعة. وكانت تلك هي المشكلة.
يتحول الفارق بين ذكاء اصطناعي يفشل وذكاء اصطناعي ينجح في الشيء الخاطئ بسرعة إلى أكثر المشكلات غير المحلولة أهميةً في تكنولوجيا المؤسسات. له اسم الآن، ستسمعه كثيراً في الأشهر القادمة: هندسة النية.
المشكلة التي لم تحلّها هندسة الموجّهات قط
في السنوات الثلاث الماضية، مرت صناعة الذكاء الاصطناعي بمرحلتين متميزتين من حرفة التعليمات. جاءت أولاً هندسة الموجّهات — فن كتابة تعليمات دقيقة توجّه مخرجات النماذج. علّمت جيلاً كاملاً من الممارسين أن طريقة تواصلك مع الذكاء الاصطناعي تُهم. لكن مع ازدياد قدرة النماذج، باتت هندسة الموجّهات أقل عرقلةً. النماذج الحدية اليوم تتعامل مع التعليمات بكفاءة دون حاجة إلى هياكل موجّهات متقنة.
ثم جاءت هندسة السياق، التي شاعت على يد Andrej Karpathy وآخرين. كانت الرؤية أن ما تُغذّي به نافذة سياق النموذج — المستندات والأمثلة ونتائج الاسترجاع والقيود — أهم من الموجّه نفسه. كانت هندسة السياق تقدماً حقيقياً. نقلت الحوار من “كيف أتحدث مع الذكاء الاصطناعي” إلى “ما الذي يحتاج الذكاء الاصطناعي أن يعرفه”.
لكن هندسة الموجّهات وهندسة السياق تشتركان في قيد جوهري: تعملان على مستوى المهمة. تتعلقان بالحصول على المخرج الصحيح لتفاعل واحد.
هندسة النية تعمل على المستوى التنظيمي. تطرح سؤالاً مختلفاً تماماً: حين يتخذ وكيل الذكاء الاصطناعي قراراً مستقلاً، هل يعكس ذلك القرار ما تقدّره المنظمة فعلاً؟ ليس ما كان في نافذة السياق مؤخراً. ليس ما نُصّ عليه في الموجّه. ما تحتاجه المنظمة.
هندسة الموجّهات تُخبر الوكلاء ماذا يفعلون. هندسة السياق تُخبرهم ماذا يعرفون. هندسة النية تُخبرهم ماذا يريدون.
كارثة Klarna: دراسة حالة في النجاح المنحرف
في مطلع عام 2024، أطلقت Klarna وكيل خدمة عملاء مدعوماً بالذكاء الاصطناعي عبر 23 سوقاً بـ 35 لغة. كانت الأرقام مذهلة. تعامل مع 2.3 مليون محادثة في الشهر الأول. انخفض متوسط وقت الحل من 11 دقيقة إلى دقيقتين. توقّع الرئيس التنفيذي توفير 40 مليون دولار سنوياً.
ثم بدأت شكاوى العملاء. إجابات عامة. نبرة آلية. صفر قدرة على التعامل مع أي شيء يستلزم حكماً. بحلول منتصف عام 2025، أخبر Siemiatkowski Bloomberg أنه رغم أن التكلفة كانت عامل التقييم السائد، جاءت النتيجة جودةً أدنى على طول الخط. وبدأت Klarna تُعيد تعيين الموظفين البشريين بشكل محموم بعد أشهر من فصلهم.
التفسير المريح — الذي تداول على نطاق واسع عام 2025 — كان أن الذكاء الاصطناعي لا يستطيع ببساطة التعامل مع الفروق الدقيقة. القراءة الأدق، المرئية الآن بفائدة الاستعادة، هي أن الذكاء الاصطناعي كان بالغ الكفاءة في حل التذاكر بسرعة، وكان حل التذاكر بسرعة هو الهدف الخاطئ.
النية التنظيمية الفعلية لـ Klarna لم تكن “حل التذاكر بسرعة”. كانت “بناء علاقات عملاء دائمة تدفع القيمة مدى الحياة”. لكن أحداً لم يُرسّخ ذلك الفارق. لم يترجمه أحد إلى صيغة يستطيع نظام الذكاء الاصطناعي استخدامها. فأدى الوكيل ما حُسّن من أجله تحديداً، بكفاءة مدمرة.
حين واجه عميل ظل وفياً ثلاث سنوات تجربةً محبطة، عامله وكيل الذكاء الاصطناعي مثله تماماً كمثل مستخدم جديد بسؤال بسيط. لم يكن الوكيل يعلم أن الاحتفاظ بالعملاء أهم من سرعة الحل. لم يكن يعلم أن عدم التوافق في النبرة يُعدّ مؤشراً رائداً لمغادرة العملاء. لم يكن يعلم أن بعض العملاء يجب توجيههم إلى البشر — ليس لأن الذكاء الاصطناعي عاجز، بل لأن الحفاظ على العلاقة يفوق مكسب الكفاءة.
هذه ليست قيوداً للذكاء الاصطناعي. إنها فجوات في النية. الـ 700 موظف بشري الذين فُصلوا أخذوا معهم معرفة مؤسسية لم تُلتقط ولم تُرسَّخ ولم تُتَح للنظام الذي حلّ محلهم: فهم أي عملاء يحتاجون صبراً، وأي مواقف تستلزم حكماً، وأي تفاعلات تبني رصيد العلاقة الذي يدفع الإيرادات على المدى الطويل.
فجوة النية بقيمة 200 مليار دولار
Klarna ليست استثناءً. إنها مقدّمة.
وجد أحدث مسح عالمي للذكاء الاصطناعي من McKinsey أن 74% من الشركات تُبلّغ عن عدم تحقيق قيمة ملموسة من استثمار الذكاء الاصطناعي — ارتفاع من 70% في العام السابق، رغم مضاعفة الاستثمار في المتوسط. أموال أكثر تتدفق، عوائد لا تتحقق.
وجد تقرير Deloitte 2026 لحالة الذكاء الاصطناعي في المؤسسات، الذي استطلع آراء أكثر من 3,000 قائد في 24 دولة، أن 84% من الشركات لم تُعِد تصميم الوظائف حول قدرات الذكاء الاصطناعي وأن 21% فحسب لديها نموذج ناضج لحوكمة الوكلاء. في الوقت ذاته، تخطط 70% لزيادة الاستثمار في الذكاء الاصطناعي. إنفاق أكثر، عمى هيكلي متجذّر.
استطلعت Salesforce آراء 2,000 قائد في تكنولوجيا المعلومات ووجدت أنه رغم اعتقاد 86% بأن الذكاء الاصطناعي الوكيل آتٍ خلال سنة إلى ثلاث سنوات، يقول 74% أن مؤسستهم ليست مستعدة. القادة يؤمنون بأن الوكلاء المستقلين أمر حتمي. بدأوا يدفعون مقابلهم. لكن لا أحد تقريباً قد حل المشكلة الجوهرية: كيف ستعرف تلك الوكلاء ما تريده المنظمة فعلاً.
ولعل لا منتج يُجلّي فجوة النية بوضوح أكثر من Microsoft Copilot. حين أطلقت Microsoft Copilot أواخر 2023، كانت أعدوانية حملة مبيعات ذكاء اصطناعي مؤسسي في التاريخ. اعتمده 85% من شركات Fortune 500. ثم تعثّر التبني بشكل حاد. وجد Gartner أن 5% فحسب من المنظمات انتقلت من التجربة الأولية إلى النشر على نطاق أوسع. أبلغت Bloomberg أن Microsoft خفّضت أهداف المبيعات الداخلية بعد تفويت غالبية البائعين لأرقامهم. حتى داخل الشركات التي أبرمت صفقات Copilot بستة أرقام، قاوم الموظفون — مفضّلين ChatGPT أو Claude للعمل الفعلي.
التفسير القياسي يتمحور حول مشكلات الواجهة وجودة النموذج. تلك مشكلات حقيقية، لكنها ليست الجوهرية. المشكلة الجوهرية أن Copilot نُشر في منظمات لم تُنجز العمل التحضيري اللازم لجعله مفيداً. معظم الشركات ألقت Copilot على عمال المعرفة دون تحديد كيفية اندماجه في سير العمل، وما البيانات التنظيمية التي يجب أن يصل إليها، وما القرارات التي يجب أن يؤثر فيها، وما معايير الجودة الواجب تطبيقها. النتيجة: ذكاء اصطناعي يعمل تقنياً وينتج مخرجات عديمة الفائدة تنظيمياً. مستندات لا تتطابق مع صوت الشركة. ملخصات فاتتها النقاط المهمة في الاجتماعات. اقتراحات صحيحة تقنياً لكنها خاطئة استراتيجياً.
مثال آخر على فجوة النية. ذكاء اصطناعي مُنشر بلا بنية تحتية للنية التنظيمية.
إعلان
الطبقات الثلاث لهندسة النية
حين تُحلّل ما تتطلبه هندسة النية فعلاً، تبرز ثلاث طبقات متميزة. معظم الشركات عالقة في الأولى.
الطبقة 1: بنية تحتية موحدة للسياق
هذه هي الطبقة التأسيسية — كيف تتدفق البيانات والعمليات والمعرفة إلى أنظمة الذكاء الاصطناعي. وجد Deloitte أن نحو 20% فحسب من المديرين التنفيذيين واثقون تماماً من أن بياناتهم جاهزة للذكاء الاصطناعي. وأن 14% فحسب طبّقوا استراتيجية بيانات موحدة بالكامل. الباقون يشغّلون الذكاء الاصطناعي على بيانات مجزأة وغير متسقة وقابلة للوصول جزئياً.
الأثر العملي مدمّر. وكيل الذكاء الاصطناعي الذي يحاول الإجابة على سؤال عميل قد لا يعلم أن لذلك العميل تذكرة دعم مفتوحة في نظام واحد، وتغيير طلب معلّق في آخر، وتاريخ مشتريات عالية القيمة في نظام ثالث. البيانات موجودة. إنها غير مرتبطة بطريقة يستطيع الوكيل رؤيتها.
استثمرت المنظمات بكثافة في نشر نماذج الذكاء الاصطناعي — 72% بدأت، وفق Deloitte — لكن استثمار معمارية البيانات تخلّف بنسبة 40% في عام واحد. الشركات تشتري الأدوات أسرع من بنائها للأنظمة التنظيمية التي تجعل تلك الأدوات مفيدة.
الطبقة 2: منظومة عمل متماسكة للذكاء الاصطناعي
تُعنى هذه الطبقة بكيفية تعاون البشر والوكلاء. ما الأدوات المتاحة؟ ما سير العمل المصممة للتفاعل البشري-الوكيل؟ أين يجب أن تحل أتمتة الذكاء الاصطناعي محل الجهد البشري، وأين تُضيف إليه، وأين يجب أن يكون حكم الإنسان غير قابل للتفاوض؟
معظم المنظمات لا تملك إطاراً لهذه الأسئلة. النتيجة أن أدوات الذكاء الاصطناعي تُنشر بمعزل، دون اندماج متماسك في طريقة سير العمل الفعلية. كل قسم، بل أحياناً كل فريق، يستخدم الذكاء الاصطناعي بشكل مختلف، بتوقعات مختلفة ومعايير جودة مختلفة وفهم مختلف لما يُفترض بالذكاء الاصطناعي تحقيقه.
الطبقة 3: هندسة النية بالمعنى الدقيق
هذه هي الطبقة التي لا تكاد توجد في أي مكان في مؤسستك على الأرجح. إنها منهجية تشفير الغرض التنظيمي في صيغ قابلة للقراءة آلياً وقابلة للتنفيذ من قِبَل الوكلاء.
صُمّمت الـ OKR التقليدية للبشر. تُشفّر أهدافاً قابلة للقراءة البشرية وتفترض الحكم البشري على الأولويات والمقايضات والغموض. حين تُعطي شخصاً ما OKR، يفسّره عبر طبقات من الخبرة المهنية وديناميكيات الفريق والمعايير الثقافية والذاكرة المؤسسية.
الوكيل لا يملك عشر سنوات من الخبرة المهنية. ليس لديه الذكاء الاجتماعي لقراءة الغرفة ولا الذاكرة المؤسسية ليعلم أن المرة الأخيرة التي جرّب فيها شخص ما نهجاً معيناً خلق فوضى.
ما تتطلبه هندسة النية هو نوع جديد من البنية التحتية — ما قد تُسميه معمارية ترجمة الأهداف. في القمة، تحتاج هياكل أهداف يستطيع الوكلاء تفسيرها والتصرف بناءً عليها. ليس “زيادة رضا العملاء” — تلك تطلّع قابل للقراءة البشرية. الوكيل يحتاج أن يعرف: ما الإشارات التي تدل على رضا العملاء في سياقنا؟ ما مصادر البيانات التي تحتوي تلك الإشارات؟ ما الإجراءات المأذون لي باتخاذها؟ ما المقايضات التي أملك صلاحية اتخاذها — السرعة مقابل الشمولية، التكلفة مقابل الجودة؟ ما الحدود الصارمة التي لا يحق لي تجاوزها؟
تحت ذلك، تحتاج أطر تفويض: القيم التنظيمية مُترجَمة إلى حدود للقرار. مبادئ القيادة في Amazon تنجح مع البشر لأن البشر يستطيعون تفسير “الهوس بالعميل” عبر الحكم. للوكلاء، تحتاج أشجار قرار محددة. حين يتعارض هدفان مشروعان، أيهما يغلب؟ في أي ظروف يستطيع الوكيل الانحراف عن الإجراء القياسي؟
ثم طبقة القياس: مؤشرات الأداء الرئيسية التنظيمية مُعادة الهندسة من أجل مساءلة الوكيل. ليس فقط هل أتمّ الوكيل مهمته، بل هل أتمّها بطريقة تخدم الأهداف الأشمل للمنظمة. هل حلّ الوكيل التذكرة؟ نعم. هل بنى علاقة عميل دائمة؟ لا. القياس الثاني هو ما تطالب به هندسة النية.
لماذا لم يُبنَ هذا بعد
جزء من الإجابة هو السرعة المحضة. السباق نحو نشر الذكاء الاصطناعي تجاوز بكثير البنية التحتية اللازمة لتوجيهه. الشركات تشتري الأدوات أسرع من بنائها للأنظمة التنظيمية التي تجعل تلك الأدوات مفيدة.
لكن السبب الأعمق أن وصف وظيفة لا أحد يقول فيه “ترجمة النية التنظيمية إلى معاملات وكيل قابلة للقراءة آلياً”. أقرب الأدوار — كبير موظفي الذكاء الاصطناعي، رئيس الاستراتيجية، نائب الرئيس للعمليات — مستغرقة في سباق النشر ذاته. المنهجية الجديدة حقاً لتشكيل الغرض التنظيمي في صيغ منظمة وقابلة للاستعلام وقابلة للتنفيذ من قِبَل الوكلاء لم تجد بعد موطناً لها في مخطط الهيكل التنظيمي المؤسسي.
يُعدّ Google Agent Development Kit أحد أولى المحاولات التقنية لتشكيل قطع من هذا، إذ يُفصّل سياق الوكيل إلى سياق عمل وذاكرة جلسة وذاكرة طويلة الأمد وإنجازات، لكل منها حوكمة محددة. اقترح بحث أكاديمي من Google DeepMind خمسة مستويات لاستقلالية وكيل الذكاء الاصطناعي — المشغّل والمتعاون والمستشار والمعتمِد والمراقب — يستلزم كل منها متطلبات حوكمة مختلفة.
لكن هذه سقالات تقنية. الممارسة التنظيمية لهندسة النية — العمل الشاق المتمثل في جعل القيم المؤسسية والأولويات وتراتبيات المقايضة قابلةً للقراءة آلياً — لا تزال في معظمها غير مبنية.
سباق النية
السباق في ذكاء الأعمال لم يعد يتعلق بقدرة النماذج. النماذج تتقارب. جميعها كفؤة. ما يتباين تبايناً جذرياً هو ما إذا كانت لدى المنظمات البنية التحتية لتوجيه تلك القدرات نحو ما يُهم فعلاً.
كانت Klarna تملك وصولاً إلى ذكاء اصطناعي على مستوى عالمي. الذكاء الاصطناعي نجح. لم يكن متوافقاً مع ما احتاجته الشركة فعلاً لأن الشركة لم تُرسّخ ما تحتاجه فعلاً بصيغة يستطيع نظام الذكاء الاصطناعي استخدامها. هذه ليست مشكلة تكنولوجية. إنها مشكلة بنية تحتية تنظيمية.
لن تأتي الموجة التالية من قيمة ذكاء الأعمال من نماذج أفضل أو رخصة Copilot إضافية. ستأتي من معمارية النية التنظيمية: جعل أهداف شركتك وقيمها وأطر قراراتها وتراتبيات مقايضاتها قابلةً للاكتشاف ومنظمةً وقابلةً للتنفيذ من قِبَل الوكلاء. ستأتي من بناء بنية التوافق التحتية التي تتيح للوكلاء اتخاذ قرارات ليست صحيحة تقنياً فحسب، بل متماسكة استراتيجياً أيضاً.
الشركات التي تحل هذا أولاً ستتمتع بميزة تنافسية حقيقية ودائمة. وكلاؤها ستعمل بالطريقة التي تحتاجها المنظمة فعلاً. منافسوها سيظلون يُنقّحون روبوتات دردشة مكلفة.
إعلان
🧭 رادار القرار
| Dimension | Assessment |
|---|---|
| الأهمية بالنسبة للجزائر | عالية — المؤسسات الجزائرية التي تنشر ذكاء اصطناعي لخدمة العملاء والأتمتة تواجه الفجوة ذاتها في النية |
| هل البنية التحتية جاهزة؟ | جزئياً — أدوات الذكاء الاصطناعي متاحة لكن البنية التحتية للنية التنظيمية غائبة إلى حد بعيد |
| هل المهارات متوفرة؟ | لا — هندسة النية بوصفها منهجية لا وجود لها في المؤسسات الجزائرية بعد |
| الإطار الزمني للقرار | 6-12 شهراً |
| الجهات المعنية الرئيسية | المديرون التقنيون، المديرون التشغيليون، قادة مشاريع الذكاء الاصطناعي، فرق التحول الرقمي |
| نوع القرار | استراتيجي |
خلاصة سريعة: قبل التسرع في نشر وكلاء الذكاء الاصطناعي، يجب على المؤسسات الجزائرية أولاً أن تُرسّخ ما تريد فعلاً من تلك الوكلاء تحسينه — ليس فقط المقاييس السهلة القياس بل القيم التنظيمية التي تدفع النجاح على المدى الطويل.
المصادر والقراءات الإضافية
- Deloitte 2026: تقرير حالة الذكاء الاصطناعي في المؤسسات
- McKinsey: المسح العالمي للذكاء الاصطناعي 2025-2026
- Salesforce: مسح حالة تكنولوجيا المعلومات 2025 — جاهزية الذكاء الاصطناعي الوكيل
- Bloomberg: الرئيس التنفيذي لـ Klarna يقرّ بأن استراتيجية الذكاء الاصطناعي كلّفت الجودة
- Gartner: تبني Microsoft 365 Copilot يتوقف عند 5% من النطاق
- Google DeepMind: مستويات استقلالية وكيل الذكاء الاصطناعي (2025)
إعلان