تغيّر شكل غرفة الاجتماعات. حيث كان المديرون التنفيذيون يتناقشون في الاستراتيجية التجارية أو لوجستيات سلاسل الإمداد، باتوا اليوم يُقيّمون عروض موردي الذكاء الاصطناعي، ويوافقون على ميزانيات الأتمتة، ويُقرّون خطط نشر أنظمة قد لا يفهمونها تماماً. وفقاً لـ Gartner، يُعدّ 75% من الرؤساء التنفيذيين صانعي القرار الرئيسيين في مجال الذكاء الاصطناعي داخل مؤسساتهم — ومع ذلك، يتخذ معظمهم هذه القرارات بمعرفة أساسية محدودة جداً بآلية عمل هذه التقنية.
هذه ليست مشكلة تقنية. إنها مشكلة ثقافة.
لا تعني الثقافة الذكائية تعلّم البرمجة. لا تتطلب خلفية في علم البيانات أو فهم بنية الشبكات العصبية. ما تتطلبه هو معرفة تشغيلية بالمفاهيم الأساسية — المصطلحات، وأنماط الفشل، وديناميكيات التكلفة — التي تُمكّن القائد التجاري من طرح الأسئلة الصحيحة، وتقييم الادعاءات المطروحة، وتجنب أكثر الأخطاء تكلفةً.
في عام 2026، لم تعد هذه المعرفة اختيارية.
لماذا باتت الثقافة الذكائية للقيادة أمراً عاجلاً
الأرقام تتحدث بوضوح. تسير الشركات نحو مضاعفة إنفاقها على الذكاء الاصطناعي هذا العام ليصل إلى متوسط 1.7% من الإيرادات — التزام كبير يقع بشكل متزايد تحت سلطة مديرين تنفيذيين غير تقنيين. يتوقع تقرير مستقبل الوظائف 2025 الصادر عن المنتدى الاقتصادي العالمي أن تُحوّل التكنولوجيا 1.1 مليار وظيفة خلال العقد القادم، مع إشارة 85% من أصحاب العمل إلى الفجوة في المهارات بوصفها العقبة الرئيسية أمام التحول الناجح بالذكاء الاصطناعي.
غير أن النتائج على أرض الواقع تدعو إلى التأمل. كشف استطلاع أجرته EY أن المؤسسات تفقد ما يصل إلى 40% من مكاسب الإنتاجية المحتملة المرتبطة بالذكاء الاصطناعي — ليس لأن الأدوات غير كافية، بل بسبب الفجوات في الفهم والحوكمة والتنسيق. والأكثر إثارةً أن تحليل عمليات نشر الذكاء الاصطناعي في المؤسسات خلص إلى أن نحو 95% من مشاريع الذكاء الاصطناعي تفشل — وأن الأسباب الرئيسية ليست إخفاقات تقنية، بل تنفيذ مجزأ، وضعف في تنسيق القيادة، وحوكمة هشّة.
النمط متكرر: تستثمر المؤسسات في الذكاء الاصطناعي دون الاستثمار في القدرة القيادية اللازمة لتوجيهه بفاعلية.
يُحدد إطار McKinsey لتطوير مهارات الذكاء الاصطناعي ثلاثة مستويات: الثقافة الذكائية (إلمام أساسي مشترك على مستوى المؤسسة)، واعتماد الذكاء الاصطناعي (تضمين الأدوات في سير العمل)، والتحول عبر الذكاء الاصطناعي (التخصص العميق بحسب الوظيفة). الثقافة هي الأساس. بدونها، يكون الاعتماد عشوائياً ويتوقف التحول عند مرحلة التجريب.
المفاهيم الخمسة التي يجب على كل قائد أعمال إتقانها
1. الـ Prompting: جودة الإخراج مرهونة بجودة التوجيه
تستجيب نماذج اللغة الذكائية للتعليمات — المعروفة بـ prompts — وتعتمد جودة النتائج بشكل شبه كلي على جودة المدخلات. يُنتج prompt مبهم وغير محدد نتائج غير موثوقة وعامة. أما الـ prompt الدقيق الغني بالسياق فيُنتج نتائج قابلة للتنفيذ.
لا يحتاج القادة إلى إتقان هندسة الـ prompts. لكنهم يحتاجون إلى فهم أن الذكاء الاصطناعي ليس محرك بحث يُستعلم بالكلمات المفتاحية — بل هو نظام يُوجَّه بتعليمات سياقية. عند تقييم أدوات الذكاء الاصطناعي أو مراجعة مخرجاته، يجب أن تكون جودة استراتيجية الـ prompting سؤالاً معياريًا.
مبدأ مفيد: كلما كانت التعليمات أكثر تحديداً، قلّت الهلوسات.
2. الهلوسة: عندما يُخطئ الذكاء الاصطناعي بثقة
هلوسة الذكاء الاصطناعي هي استجابة خاطئة فعلياً، لكنها تُقدَّم بثقة عالية وطلاقة. هذه ليست أخطاء بالمعنى التقليدي — النموذج لم يتعطل ولم يُشر إلى عدم اليقين. بل أنتج إجابة تبدو معقولة استناداً إلى أنماط إحصائية في بيانات تدريبه، دون أي آلية للتحقق من صحة تلك الإجابة.
وصفت PwC الهلوسة بأنها أحد أكثر المخاطر انعكاساً على اعتماد الذكاء الاصطناعي في المؤسسات. على أرض الواقع، يعني ذلك أن ملخصات قانونية يُنتجها الذكاء الاصطناعي قد تستشهد بقضايا غير موجودة، وتحليلات مالية قد تذكر أرقاماً مختلقة، ونتائج بحثية قد تتضمن مراجع تبدو موثوقة لكنها مخترعة كلياً.
التداعي التشغيلي مباشر: يجب التحقق من أي مخرج ذكاء اصطناعي يُستخدم في صنع القرار. فهم الهلوسة ليس شكاً في الذكاء الاصطناعي — بل هو معرفة أين وكيف تُطبَّق الرقابة البشرية.
3. بيانات التدريب: ما يعرفه النموذج (وما يجهله)
يُدرَّب كل نموذج ذكاء اصطناعي على مجموعة بيانات — مجموعة من النصوص والوثائق والأكواد جُمعت حتى نقطة زمنية محددة. تحدد هذه المجموعة معرفة النموذج وتحيزاته ونقاط ضعفه.
التبعات العملية للاستخدام المهني جوهرية. النموذج العام المدرَّب على بيانات إنترنت واسعة له تاريخ انقطاع — لا يعلم ما حدث الشهر الماضي، ولا يستطيع الوصول إلى المستندات الداخلية لمؤسستك إلا إذا قُدِّمت له صراحةً، وقد يعكس ظروف سوق متقادمة. أما النموذج المتخصص المُضبَّط على بيانات قطاعية منتقاة، فسيتفوق عموماً على النموذج العام في المهام المتخصصة مع هلوسات أقل.
عند تقييم موردي الذكاء الاصطناعي، يُعدّ فهم ما دُرِّب عليه النموذج ومتى، سؤال عناية واجبة أساسياً.
4. حدود النماذج: نوافذ السياق وغياب التفكير
نماذج اللغة الذكائية لا تفكر. تتنبأ إحصائياً بالرمز التالي الأكثر احتمالاً، رمزاً رمزاً، استناداً إلى المدخلات وبيانات التدريب. هذا التمييز مهم لأنه يُفسر فئة من الإخفاقات تُحيّر كثيراً من المستخدمين الجدد: ينتج النموذج إجابات تبدو منطقية لكنها تنهار عند التدقيق.
علاوةً على ذلك، لكل نموذج نافذة سياق — حد أقصى من النص يمكنه معالجته في تفاعل واحد. حين تتجاوز المدخلات هذه النافذة، يُفقد المحتوى السابق فعلياً، مما قد يجعل النموذج يفقد مسار التعليمات، أو يتناقض مع ما ذكره سابقاً، أو يُنتج مخرجات غير متسقة في الوثائق الطويلة.
على القادة الذين يوافقون على عمليات نشر ذكاء اصطناعي لمهام تحليلية معقدة ومتعددة الخطوات أن يسألوا الموردين تحديداً عن كيفية تعامل أنظمتهم مع قيود السياق الطويل.
5. مقايضات التكلفة والاستجابة: النموذج المناسب للمهمة المناسبة
ليست جميع نماذج الذكاء الاصطناعي متساوية — والأقوى ليس دائماً الأنسب. تُكلّف النماذج المتقدمة القادرة على التفكير المعقد أكثر بكثير لكل استدعاء API وتستجيب بشكل أبطأ مقارنةً بنماذج أصغر وأسرع وأرخص، تُلائم المهام البسيطة.
هذا قرار تجاري مُقنَّع في هيئة قرار تقني. روبوت دعم العملاء الذي يجيب على أسئلة بسيطة لا يحتاج — ولا ينبغي أن يستخدم — النموذج ذاته الذي يُعالج إحاطات المديرين أو تحليل العقود. يمكن أن يبلغ الفارق في التكلفة بين اختيار النموذج المناسب والمُضخَّم ترتيبَ حجم كامل على نطاق المؤسسة.
فهم التكلفة لكل استعلام، ومتطلبات الاستجابة لتجربة المستخدم، وعتبات الدقة لحالات الاستخدام المحددة، يُمكّن القادة من مساءلة موردي الذكاء الاصطناعي باحترافية وتقييم التكلفة الإجمالية للملكية بواقعية.
تقييم موردي الذكاء الاصطناعي دون خبرة تقنية
حين يقدم مورد حلاً للذكاء الاصطناعي، لا تتعلق الأسئلة الصحيحة بالبنية — بل بالأداء والمخاطر. أسئلة مفيدة: ما معدل الهلوسة الذي قستموه لحالة الاستخدام هذه في قطاعنا؟ أين تذهب بياناتنا وكيف تُخزَّن؟ ماذا يحدث حين يُحدَّث النموذج — هل ستتعطل سير عملنا؟ ما التكلفة الإجمالية الشهرية بحجم المعاملات المتوقع؟
المطالبة بمعايير دقة محددة لحالة الاستخدام، بدلاً من الادعاءات العامة بالقدرات، هو الوسيلة الأكثر فاعلية للتمييز بين الموردين ذوي النتائج الحقيقية وأولئك الذين يقدمون عروضاً تجذب الأنظار.
إعلان
بناء مؤسسة ذات ثقافة ذكائية
التزمت IBM بتدريب مليوني متعلم في مجال الذكاء الاصطناعي بحلول 2026، وسجّلت Coursera أكثر من 10.9 مليون تسجيل في دورات الذكاء الاصطناعي التوليدي — إشارة واضحة إلى الاتجاه الذي يسلكه السوق. تُقدّم منصات التعلم الكبرى الآن برامج مخصصة للمديرين لا تستلزم أي متطلبات تقنية مسبقة.
موارد تستحق المعرفة: مسار ثقافة الذكاء الاصطناعي من IBM على Coursera، ودورة Introduction to Generative AI المجانية من Google Cloud، ومسار التعلم المشترك بين Microsoft وLinkedIn Learning للذكاء الاصطناعي التوليدي (1700 دورة ذكاء اصطناعي متاحة)، وتخصص Coursera: Generative AI for Executives and Business Leaders، وبرنامج AI Fundamentals for Business Leaders من Harvard.
توصي McKinsey المؤسسات بوضع معيار أدنى للثقافة الذكائية لجميع الأدوار — لا للوظائف التقنية فحسب. يعني ذلك فرض حد أدنى من فهم الذكاء الاصطناعي على مستوى كامل مجلس الإدارة والمديرين التشغيليين الرئيسيين، وتحديد أبطال ذكاء اصطناعي داخليين في كل قسم قادرين على ترجمة المفاهيم في السياق الوظيفي، وخلق الأمان النفسي اللازم للتجريب دون احتكاكات حوكمة مفرطة.
وجد تقرير DataCamp 2025 حول حالة ثقافة البيانات والذكاء الاصطناعي أن 43% من المؤسسات تُقدّم الآن برامج ناضجة لتطوير مهارات الذكاء الاصطناعي، أي ما يكاد يضاعف النسبة مقارنةً بالعام السابق. المؤسسات التي لم تبدأ بعد تتأخر عن معيار مرجعي يتحرك بسرعة.
مسؤولية القائد
الهوة بين الاستثمار في الذكاء الاصطناعي وفهم الذكاء الاصطناعي لا يمكن الإبقاء عليها. مجالس الإدارة والفرق القيادية التي توافق على ميزانيات ذكاء اصطناعي كبيرة دون ثقافة أساسية تتخذ قرارات استراتيجية في ظل جهل غير مبرر — وهو خطر يتجلى في عمليات نشر فاشلة، وخيارات موردين سيئة، وتعرض تنظيمي، ومكاسب إنتاجية غير محققة.
برنامج منظم مدته 10 ساعات يغطي هذه المفاهيم الخمسة كافٍ لتحويل مدير تنفيذي غير تقني من متلقٍّ سلبي إلى مُستجوِب فاعل لمقترحات الذكاء الاصطناعي. هذا ليس استثماراً كبيراً بالنسبة للقرارات المُتخذة. في عام 2026، هو المعيار المسؤول الأدنى لأي شخص في موقع حوكمة الذكاء الاصطناعي.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | مرتفعة — يتخذ قادة الأعمال الجزائريون قرارات استثمار في الذكاء الاصطناعي دون فهم أساسي، مما يؤدي إلى خيارات موردين سيئة ومشاريع فاشلة |
| الجاهزية التحتية؟ | نعم — المفاهيم متاحة عبر المنصات الإلكترونية المتوفرة في الجزائر |
| المهارات متوفرة؟ | جزئياً — الكفاءات التقنية في الذكاء الاصطناعي موجودة؛ أما الثقافة الذكائية على الجانب التجاري فمحدودة جداً |
| الجدول الزمني للعمل | فوري — يجب على أي مؤسسة تستخدم أو تُقيّم أدوات الذكاء الاصطناعي إيلاء أولوية لثقافة القيادة الآن |
| أصحاب المصلحة الرئيسيون | المديرون التنفيذيون C-suite، أعضاء مجلس الإدارة، مديرو التحول الرقمي، أقسام تدريب الموارد البشرية |
| نوع القرار | تعليمي |
خلاصة سريعة: المديرون التنفيذيون الجزائريون الذين يوافقون على ميزانيات واستراتيجيات الذكاء الاصطناعي دون إلمام بالأساسيات يُعرّضون مؤسساتهم لإخفاقات مكلفة. يكفي برنامج منظم مدته 10 ساعات لتغطية المفاهيم الأساسية — وهذه أولوية فورية لا هدف بعيد المدى.
المصادر والقراءات الإضافية
- الثقافة الذكائية: لماذا وكيف يجب على القادة بناؤها — Gartner
- تقرير 2025 حول حالة ثقافة البيانات والذكاء الاصطناعي — DataCamp
- الشركات تفقد حتى 40% من مكاسب الإنتاجية الذكائية — EY
- تقرير مستقبل الوظائف 2025 — المنتدى الاقتصادي العالمي
- حالة الذكاء الاصطناعي في 2025 — McKinsey
- الثقافة الذكائية: سد الفجوة في مهارات الذكاء الاصطناعي — IBM
- الذكاء الاصطناعي التوليدي للمديرين التنفيذيين وقادة الأعمال — Coursera
- هلوسة الذكاء الاصطناعي: ما يجب على قادة الأعمال معرفته — PwC
- إعادة تعريف تطوير مهارات الذكاء الاصطناعي كضرورة تحولية — McKinsey
- أساسيات الذكاء الاصطناعي لقادة الأعمال — Harvard Professional Development





إعلان