مشكلة الذكاء الاصطناعي الخفي التي تفوّتها برامج التدريب
تتمحور نقاشات تبني الذكاء الاصطناعي في المؤسسات عادةً حول اختيار الأدوات وتعاقدات الموردين وحوكمة البيانات. أما النقاش حول البشر الذين يستخدمون هذه الأدوات فيتأخر تأخراً ملحوظاً. والنتيجة فجوة متسعة تُشكّل خطراً مزدوجاً في آنٍ معاً: الموظفون الذين لا يستخدمون الذكاء الاصطناعي يتخلفون، والذين يستخدمونه دون تدريب يُدخلون مخاطر لا تستطيع مؤسساتهم رؤيتها.
الأرقام لافتة. وفقاً لأبحاث Go1 حول الذكاء الاصطناعي في بيئة العمل، يستخدم 68% من الموظفين الذكاء الاصطناعي في العمل — في الغالب دون توجيه رسمي. وجد بحث KPMG المشترك مع جامعة ملبورن أن 57% من هؤلاء الموظفين يخفون استخدامهم للذكاء الاصطناعي عن أصحاب عملهم، وأن 60% لم يتلقوا أي تدريب عليه. ومعنى ذلك أن غالبية استخدام الذكاء الاصطناعي في المؤسسات يجري في فراغ من الحوكمة.
هذه ليست مشكلة تقنية؛ إنها مشكلة تدريب وثقافة — تُفرز بالفعل عواقب تجارية قابلة للقياس. أصدر Deloitte Australia استرداداً بقيمة ما يقارب 500,000 دولار بعد تسليم تقرير مُوّلد بالذكاء الاصطناعي يحتوي على استشهادات بحثية مُخترَعة. السبب الجذري لم يكن فشل الأداة؛ بل غياب تدريب التحقق من المخرجات للمستشارين الذين استخدموا الأداة.
فجوة الإنتاجية التي تُبرر الاستثمار
الحجة لصالح تدريب محو أمية الذكاء الاصطناعي في المؤسسات ليست دفاعية بالأساس — إنها هجومية: التفاضل الإنتاجي بين العمال المتمكنين من الذكاء الاصطناعي وغير المتمكنين كبير بما يكفي ليكون عاملاً تنافسياً ملموساً.
وجدت دراسة جامعة Cornell أن العمال المقترنين بوكلاء ذكاء اصطناعي أظهروا إنتاجية أعلى بنسبة 73% من أولئك غير المقترنين. وجد بنك الاحتياطي الفيدرالي في سانت لويس أن الذكاء الاصطناعي التوليدي يوفر للعمال في المتوسط 2.2 ساعة أسبوعياً، وأكثر من 50% من المستخدمين اليوميين يُبلّغون عن توفير 3 ساعات أو أكثر أسبوعياً.
العكس قابل للقياس بالمثل. في المؤسسات حيث يستخدم معظم الموظفين الذكاء الاصطناعي دون تدريب، يُسجَّل نمط فشل محدد: المحتوى المُوّلد بالذكاء الاصطناعي الرديء يُلحق الضرر بعلاقات العمل. وجد بحث Go1 أن 54% من العمال ينظرون إلى الزملاء الذين يسيئون استخدام الذكاء الاصطناعي على أنهم أقل إبداعاً، و50% يرونهم أقل كفاءة. وتُكلّف إعادة العمل على مخرجات الذكاء الاصطناعي الرديئة الزملاءَ نحو ساعتين في كل حالة.
إعلان
ما ينبغي لقيادات الموارد البشرية وتطوير الكفاءات فعله لسد الفجوة
1. تدقيق استخدام الذكاء الاصطناعي الخفي قبل تصميم برنامج التدريب
الخطأ الأكثر شيوعاً في برامج محو أمية الذكاء الاصطناعي المؤسسية هو بناء تدريب للاستخدام الذي تتمنى المؤسسة أن يمارسه الموظفون، لا للاستخدام الذي يمارسونه فعلاً. إذا كان 57% من الموظفين يخفون استخدامهم للذكاء الاصطناعي بالفعل، فالمؤسسة لا تواجه مشكلة تبني تدريب — بل تواجه مشكلة ثقة واكتشاف تسبق مشكلة التدريب.
قبل تصميم المنهج، أجرِ تدقيقاً مجهولاً لاستخدام أدوات الذكاء الاصطناعي في المؤسسة: أي الأدوات يستخدمها الموظفون فعلاً؟ وما المهام التي يطبّقون عليها الذكاء الاصطناعي؟ نتيجة KPMG القائلة بأن 50% فقط من الموظفين يُفيدون بأن الإدارة وصّلت استراتيجية ذكاء اصطناعي واضحة هي أقوى إشارة إلى أن معظم المؤسسات لم تُنجز هذا العمل الاستكشافي.
2. تصميم ثلاثة مستويات من التدريب، لا برنامج عام واحد
محو أمية الذكاء الاصطناعي في المؤسسات ليست مهارة واحدة. ممثل خدمة العملاء والمحلل المالي ومطور البرمجيات يستخدمون الذكاء الاصطناعي بطرق مختلفة ويحتاجون إلى تدريب مختلف جوهرياً. إطار عملي من ثلاثة مستويات:
المستوى الأول — مستهلك الذكاء الاصطناعي (جميع الموظفين): تقييم المخرجات وأساسيات المطالبات وسياسة الاستخدام. السؤال المحوري: “كيف أعرف متى أثق بمخرجات الذكاء الاصطناعي ومتى أتحقق منها؟” المدة: 4-6 ساعات إجمالية موزعة على وحدات.
المستوى الثاني — ممارس الذكاء الاصطناعي (المستخدمون المتقدمون حسب الدور): تكامل سير العمل، والميزات المتقدمة للأدوات، وهندسة المطالبات المتخصصة بالمجال. السؤال المحوري: “كيف أدمج الذكاء الاصطناعي في سير عملي اليومي لتوفير ساعتين أو أكثر أسبوعياً؟” المدة: 12-20 ساعة على مدار 4-6 أسابيع مع تمارين تطبيقية.
المستوى الثالث — منشئ الذكاء الاصطناعي (الفرق التقنية والتشغيلية): تصميم الوكلاء وتكامل الواجهات البرمجية وضبط الضمانات وتدقيق مخرجات الذكاء الاصطناعي. السؤال المحوري: “كيف أبني سير عمل الذكاء الاصطناعي وأحكمها لفريقي؟” المدة: 40 ساعة أو أكثر مع تقييم قائم على مشاريع.
3. جعل التحقق من المخرجات المهارةَ الأساسية غير القابلة للتفاوض في جميع المستويات
أعلى قيمة مهارة لمحو أمية الذكاء الاصطناعي — للموظفين في جميع المستويات — هي التحقق من المخرجات: القدرة على تقييم ما إذا كان المحتوى المُوّلد بالذكاء الاصطناعي دقيقاً ومناسباً وصالحاً للاستخدام قبل اعتماده. هذه المهارة هي الأقل تدريباً حالياً في برامج الذكاء الاصطناعي المؤسسية، التي تميل إلى التركيز على التوليد (كيفية كتابة مطالبات أفضل) بدلاً من التقييم (كيفية تقييم ما يُعاد).
ينبغي أن يشمل تدريب التحقق من المخرجات: التحقق من ادعاءات الذكاء الاصطناعي مقابل المصادر الأولية، والتعرف على أنماط الهلوسة الخاصة بالأدوات المستخدمة، وإدراك متى تكون مخرجات الذكاء الاصطناعي “شبه صحيحة لكن ليست كذلك تماماً”.
4. بناء أزواج الإرشاد حول نقل مهارات الذكاء الاصطناعي
نموذج أكثر فاعلية هو ازدواجية الإرشاد المنظم حيث يُقرَن ممارسو الذكاء الاصطناعي (المُحدَّدون من برنامج المستوى الثاني، لا المفترَضون بالسن) مع مستهلكي الذكاء الاصطناعي لعلاقات نقل معرفة تمتد 90 يوماً. وجد بحث MentorCliq حول رفع المهارات بالذكاء الاصطناعي مع الإرشاد أن نقل مهارات الذكاء الاصطناعي القائم على الإرشاد يُنتج احتفاظاً أعلى وتغييراً سلوكياً أكبر مقارنة بالتدريب الجماعي وحده. تُنفق الشركات في المتوسط 1,500 دولار للموظف سنوياً على تطوير المهارات؛ والعائد على الاستثمار يبلغ ذروته حين يعقب التدريبَ ممارسةٌ منظمة في سياقات عمل حقيقية.
ما يأتي بعد ذلك: الطبقة التنظيمية قادمة
محو أمية الذكاء الاصطناعي في المؤسسات على وشك أن يصبح موضوع امتثال لا موضوع مواهب فحسب. يُصنّف قانون الذكاء الاصطناعي الأوروبي الذكاءَ الاصطناعي في التوظيف وتقييم الأداء والأدوار الحرجة للسلامة بوصفه “عالي الخطورة”، ما يستلزم رقابة بشرية موثقة وشفافية للعمال. أصدرت وزارة العمل الأمريكية إطارها الأول الرسمي لمحو أمية الذكاء الاصطناعي مطلع 2026. المؤسسات التي بنت برامج موثقة لمحو أمية الذكاء الاصطناعي ستحظى بتقدم في الامتثال؛ أما التي لم تفعل فستواجه تكلفة التدريب وتكلفة الإصلاح التنظيمي في آنٍ واحد.
الأسئلة الشائعة
لماذا يُخفي 57% من الموظفين استخدامهم للذكاء الاصطناعي عن أصحاب عملهم؟
وجد بحث KPMG مع جامعة ملبورن أن الموظفين يخفون استخدام الذكاء الاصطناعي أساساً بسبب الخوف من الحكم على ملكية عملهم، وقلق حول انتهاك السياسات، وعدم اليقين بشأن ما هو مقبول. هذا السلوك في الإخفاء أعراض غياب التواصل: 50% فقط من الموظفين يُفيدون بأن الإدارة وصّلت استراتيجية ذكاء اصطناعي واضحة. المؤسسات التي تنشر سياسات استخدام صريحة للذكاء الاصطناعي تُقلل من معدلات الإخفاء وتكتسب الرؤية اللازمة لحوكمة الاستخدام بمسؤولية.
ما المكسب الإنتاجي القابل للقياس من التدريب الهيكلي على محو أمية الذكاء الاصطناعي؟
وجدت دراسة جامعة Cornell أن العمال المقترنين بوكلاء ذكاء اصطناعي أظهروا إنتاجية أعلى بنسبة 73% من غير المقترنين. يوفر الذكاء الاصطناعي التوليدي للعمال في المتوسط 2.2 ساعة أسبوعياً، وأكثر من 50% من المستخدمين اليوميين يوفرون 3 ساعات أو أكثر أسبوعياً. غير أن هذه المكاسب تفترض موظفين قادرين على التحقق من مخرجات الذكاء الاصطناعي — الموظفون غير المدرّبين الذين يقبلون مخرجات خاطئة دون تحقق يفقدون تلك الساعات في إعادة العمل.
كيف ينبغي للمؤسسات إعطاء الأولوية لتدريب محو أمية الذكاء الاصطناعي في ظل ميزانيات تطوير كفاءات محدودة؟
ابدأ بتدريب التحقق من المخرجات لأوسع قاعدة ممكنة من الموظفين — هذه المهارة التي تمنع أعلى تكاليف الفشل وتنطبق بشكل عالمي. ثم استثمر في برامج ممارسي المستوى الثاني للأدوار ذات أعلى إمكانية إنتاجية من تكامل الذكاء الاصطناعي. احتفظ بتدريب منشئ المستوى الثالث للقيادات التقنية والتشغيلية. الشركات التي تُنفق 1,500 دولارها للموظف على دورة واحدة عامة في أساسيات الذكاء الاصطناعي تُجري متوسطاً على احتياجات تستلزم استثماراً مُتمايزاً.
—















