الذكاء الاصطناعيالأمن السيبرانيالبنية التحتيةالمهاراتالسياسةالشركات الناشئةالاقتصاد الرقمي

عندما اختلق Claude أرقام عروض مجلس الإدارة لأشهر — ولم يلاحظ أحد

فبراير 25, 2026

Boardroom with AI-generated presentation showing fabricated data visualization

شارك خبير استراتيجيات الذكاء الاصطناعي (AI) Nate B. Jones مؤخرًا قصة من شأنها أن تُقلق كل مؤسسة تستخدم الذكاء الاصطناعي في إعداد التقارير التنفيذية. كان أحد الفرق يستخدم Claude لإنشاء عروض تقديمية لمجلس الإدارة. مُنح النموذج إمكانية الوصول إلى مصادر بيانات مختلفة وطُلب منه إنتاج ملخصات ربع سنوية للفريق التنفيذي. وفي كل ربع سنة، كان يقدم عروضًا احترافية مصقولة تتضمن رسومًا بيانية واضحة وأرقامًا محددة وسرديات مُقنعة.

المشكلة أن بعض تلك الأرقام كانت مُختلقة (Hallucinated). لم تكن خاطئة بشكل صارخ — بل كانت خاطئة بشكل معقول. قريبة بما يكفي من الأرقام الحقيقية لدرجة أن أحدًا لم يشكك فيها لأشهر. وعندما تحقق شخص أخيرًا من البيانات المصدرية، وجد تناقضات عبر عروض تقديمية لعدة أرباع سنوية كانت قد عُرضت على مجلس الإدارة واستُخدمت لاتخاذ قرارات استراتيجية.

Jones — الذي شغل سابقًا منصب رئيس المنتج في Amazon Prime Video والذي يصل اليوم إلى أكثر من 250,000 متخصص عبر نشراته اليومية حول الذكاء الاصطناعي — شارك هذه الحالة كمثال تحذيري لما يحدث عندما تثق المؤسسات بمخرجات الذكاء الاصطناعي دون التحقق الهيكلي منها. انتشرت القصة على نطاق واسع في مجتمع الذكاء الاصطناعي لأنها تصف نمط فشل يحدث شبه حتمًا الآن في مؤسسات لا تعلم بذلك.

كيف يتسلل التلفيق المعقول

هلوسة الذكاء الاصطناعي (AI Hallucination) ظاهرة معروفة جيدًا. صنّفها NIST رسميًا باعتبارها “تلفيقًا” (Confabulation) في ملف مخاطر الذكاء الاصطناعي التوليدي الصادر في يوليو 2024 (NIST AI 600-1)، حيث عرّفها بأنها إنتاج محتوى يُذكر بثقة لكنه خاطئ أو زائف. لكن معظم النقاشات حول الهلوسة تركز على المخرجات الخاطئة بشكل واضح — أخطاء وقائعية يمكن لأي شخص مُطّلع اكتشافها فورًا. حالة عروض مجلس الإدارة تمثل شيئًا أكثر خبثًا: مخرجات خاطئة بطرق تبدو صحيحة.

عندما لم يتمكن النموذج من العثور على البيانات الدقيقة التي يحتاجها، لم يُشر إلى الفجوة. لم يُدرج عنصرًا نائبًا ولم يُرجع خطأ. بل أنتج أرقامًا معقولة إحصائيًا ومتسقة داخليًا ومنسّقة بنفس درجة الثقة كالبيانات الحقيقية. بدت الرسوم البيانية احترافية. والاتجاهات كانت منطقية سرديًا. لم يكن هناك أي شيء في المخرجات يُشير إلى أن البيانات الأساسية كانت مُختلقة.

وثّقت أبحاث Anthropic الخاصة حول الانحراف في الأنظمة الوكيلة (Agentic Misalignment) هذه الديناميكية: النماذج التي تعمل تحت ضغط تحقيق الأهداف تميل إلى ملء الفجوات بدلًا من الإشارة إليها. عند تكليفها بإنجاز مهمة، اختارت النماذج باستمرار إنتاج مخرجات بدلًا من الاعتراف بعدم اليقين — وهي نفس الديناميكية التي تقف وراء فشل عروض مجلس الإدارة.

يتغذى هذا السلوك على ما يُسميه الباحثون “الإحصائيات الميتة الحية” (Zombie Statistics) — أرقام ملفقة أو مشوهة تتداول بلا نهاية عبر بيانات التدريب دون مصدر أولي قابل للتتبع. عندما يستوعب نموذج ملايين الإحصائيات ذات المظهر المعقول أثناء التدريب، يتعلم توليد أرقام تبدو حقيقية لأنها تتطابق مع الأنماط الإحصائية للبيانات الفعلية. والنتيجة هي تلفيق يجتاز الفحص السطحي.

حجم المشكلة

قصة عروض مجلس الإدارة ليست حالة منعزلة. أجرت دراسة صدرت في فبراير 2026 تحققًا من صحة مخرجات ستة أدوات ذكاء اصطناعي لإنشاء العروض التقديمية — Gamma وBeautiful.ai وCanva وTome وKimi وLayerProof — بإعطاء كل منها نفس التعليمات والتحقق من كل ادعاء في المخرجات. أفضل أداة سجّلت دقة بنسبة 44 في المئة. أسوأها سجّلت صفرًا. لم تتحقق أي أداة من أكثر من نصف ادعاءاتها، وكانت الإحصائيات أقل فئة موثوقية في المعلومات المُولّدة.

يُقاس الأثر المؤسسي بالمليارات. وفقًا لبيانات القطاع المُجمّعة في عام 2025، أسفرت هلوسات الذكاء الاصطناعي عن خسائر موثقة تُقدّر بنحو 67.4 مليار دولار في عام 2024 وحده. يقضي الموظفون في المتوسط 4.3 ساعة أسبوعيًا في التحقق من المحتوى المُولّد بالذكاء الاصطناعي، بتكلفة تقارب 14,200 دولار لكل موظف سنويًا من الإنتاجية المُهدرة. كما أفاد 47 في المئة من مستخدمي الذكاء الاصطناعي في المؤسسات بأنهم اتخذوا قرارًا تجاريًا كبيرًا واحدًا على الأقل بناءً على محتوى مُختلق.

هذه ليست حالات هامشية. هذه هي بيئة التشغيل الأساسية للمؤسسات التي تستخدم الذكاء الاصطناعي التوليدي (Generative AI) في سير العمل الحرجة.

إعلان

مفارقة التحقق

تكشف حادثة عروض مجلس الإدارة عمّا يمكن تسميته بمفارقة التحقق في تبني الذكاء الاصطناعي المؤسسي. تتبنى المؤسسات أدوات الذكاء الاصطناعي لتقليل الوقت المُستغرق في معالجة المعلومات وإعداد التقارير. المكسب في الكفاءة حقيقي — يمكن للذكاء الاصطناعي إنتاج ما يستغرق من البشر ساعات أو أيامًا في دقائق.

لكن هذا المكسب في الكفاءة يخلق ثغرة جديدة. عندما يُعدّ البشر التقارير، فإن عملية جمع البيانات والتحقق من المصادر وتجميع السردية تعمل كطبقة تحقق مدمجة. المحلل الذي يستخرج الأرقام من قاعدة بيانات ويقارنها بالربع السابق ويلاحظ شذوذًا يقوم بضمان الجودة كناتج ثانوي لأداء عمله.

عندما يتولى الذكاء الاصطناعي خط الإنتاج بالكامل من الوصول إلى البيانات حتى العرض التقديمي النهائي، تختفي طبقة التحقق العرضية تلك. ونادرًا ما تستبدلها المؤسسات بطبقة مقصودة، لأن إضافة خطوة تحقق تُعيد الاحتكاك الذي كان من المفترض أن يُزيله الذكاء الاصطناعي.

تحتل عروض مجلس الإدارة موقعًا فريدًا في خارطة المخاطر هذه. فهي الرؤية المُلخّصة التي تُشكّل التوجه الاستراتيجي. الأرقام الملفقة في عرض مجلس الإدارة لا تُضلل المجلس فحسب — بل تتسلسل عبر كل قرار يُتخذ لاحقًا. إذا أظهر اتجاه إيرادات مُختلق نموًا أقوى من الواقع، فقد يوافق المجلس على خطط توسع لا يدعمها الأداء الفعلي. ويتفاقم الضرر عبر عدة أرباع سنوية حيث يبني كل عرض تقديمي على افتراضات أرساها العرض السابق.

الحل الهيكلي: التحقق بالتصميم

الدرس ليس أن المؤسسات يجب أن تتجنب الذكاء الاصطناعي في إعداد التقارير التنفيذية. بل إنها تحتاج إلى آليات تحقق هيكلية لا تعتمد على أن يختار شخص ما إعادة الفحص. 76 في المئة من المؤسسات تُشغّل الآن عمليات “الإنسان في الحلقة” (Human-in-the-Loop) خصيصًا لاكتشاف الهلوسات — لكن فعالية هذه العمليات تتفاوت بشكل كبير.

التحقق الآلي من المصادر. عندما يُولّد الذكاء الاصطناعي رقمًا لتقرير ما، يجب أن يتحقق النظام تلقائيًا من هذا الرقم مقابل البيانات المصدرية ويُبلّغ عن أي تناقض. لا ينبغي أن يكون هذا اختياريًا أو معتمدًا على تذكّر إنسان للتحقق. يوفر NIST AI 600-1 إطارًا منظمًا لتطبيق هذه الضوابط، بما في ذلك إرشادات محددة لإدارة مخاطر التلفيق.

مؤشرات الثقة. يجب أن تتضمن مخرجات الذكاء الاصطناعي الموجهة لصناع القرار مؤشرات ثقة (Confidence Indicators) توضح ما إذا كانت كل نقطة بيانات قد استُرجعت مباشرة من مصدر، أو حُسبت من بيانات مصدرية، أو استُنتجت. يجب أن يتمكن أعضاء مجلس الإدارة من التمييز بلمحة بين الحقائق الموثقة والتقديرات المُولّدة بالذكاء الاصطناعي.

فصل التوليد عن التحقق. لا ينبغي أن يكون نظام الذكاء الاصطناعي الذي يُولّد العرض التقديمي هو نفسه الذي يتحقق منه. استخدام نموذج أو عملية منفصلة للتحقق من المخرجات يُنشئ فحصًا مستقلًا يكشف نوع التلفيق المتسق ذاتيًا الذي يُنتجه نموذج واحد.

نقاط تحقق بشرية إلزامية للمخرجات عالية المخاطر. بالنسبة للمحتوى الذي يؤثر مباشرة على القرارات التنفيذية، يجب أن يكون هناك متطلب هيكلي — وليس مجرد اقتراح — بأن يتحقق إنسان من نقاط البيانات الحرجة مقابل الأنظمة المصدرية قبل أن تصل المخرجات إلى صناع القرار.

هذا يحدث لكم على الأرجح

الحقيقة المُزعجة في قصة عروض مجلس الإدارة هي أنها شبه حتمًا ليست فريدة. أي مؤسسة تستخدم الذكاء الاصطناعي لإنتاج تقارير أو ملخصات أو تحليلات تغذي قرارات الأعمال معرّضة لنفس المخاطر.

السؤال ليس ما إذا كانت أدوات الذكاء الاصطناعي لديكم تُهلوس أحيانًا. إنها تفعل — كل نموذج متقدم يفعل ذلك، بغض النظر عن المزود. السؤال هو ما إذا كانت مؤسستكم تمتلك آليات هيكلية لاكتشاف الهلوسات قبل أن تصل إلى الأشخاص الذين يتخذون قرارات بناءً عليها.

إذا كانت الإجابة لا — إذا كانت عملية التحقق لديكم تعتمد على أن يختار شخص ما إجراء فحص عشوائي، أو على أن يُبلّغ الذكاء الاصطناعي عن عدم يقينه بنفسه — فأنتم تعملون بنفس البنية التي فشلت في حالة عروض مجلس الإدارة. الفرق الوحيد هو أنكم لم تكتشفوا التناقضات بعد.

المؤسسات التي ستنجح في تبني الذكاء الاصطناعي ليست تلك التي تختار أفضل نموذج. بل تلك التي تبني التحقق في سير عملها كمتطلب هيكلي وليس كفكرة لاحقة. لأن أخطر مخرجات الذكاء الاصطناعي ليست تلك الخاطئة بوضوح. بل تلك التي تبدو صحيحة، وتشعرك بأنها صحيحة — لكنها ليست كذلك.

إعلان


🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الصلة بالجزائر عالية — المؤسسات الجزائرية والهيئات الحكومية التي تتبنى الذكاء الاصطناعي في إعداد التقارير والتحليل تواجه مخاطر هلوسة مطابقة؛ Sonatrach وDjezzy وكيانات القطاع العام التي تستخدم ملخصات الذكاء الاصطناعي معرّضة مباشرة
البنية التحتية جاهزة؟ لا — تفتقر معظم المؤسسات الجزائرية إلى أنابيب التحقق الآلي من البيانات أو أُطر التحقق من مخرجات الذكاء الاصطناعي
المهارات متوفرة؟ جزئيًا — يوجد محللو بيانات لكن مهارات ضمان جودة الذكاء الاصطناعي المتخصصة (تدقيق الأوامر، تصميم التحقق من المخرجات) نادرة في السوق المحلية
الجدول الزمني للعمل فوري — أي مؤسسة تستخدم الذكاء الاصطناعي لإنتاج تقارير للقيادة يجب أن تُطبّق نقاط تحقق الآن
أصحاب المصلحة الرئيسيون المدراء الماليون، فرق البيانات، أمناء مجالس الإدارة، إدارات التدقيق الداخلي، قادة مشاريع الذكاء الاصطناعي
نوع القرار تكتيكي

خلاصة سريعة: إذا كانت مؤسستكم تستخدم الذكاء الاصطناعي لإنتاج تقارير أو تحليلات تُغذي قرارات القيادة، فطبّقوا نقاط تحقق إلزامية فورًا. لا تنتظروا حادثة لتكتشفوا أن أرقامكم الربع سنوية كانت ملفقة. ابدأوا بمخرجاتكم الأعلى مخاطرة — عروض مجلس الإدارة، التقارير المالية، الملفات التنظيمية — وابنوا آليات تحقق آلية قبل توسيع نطاق الذكاء الاصطناعي في مزيد من سير عمل إعداد التقارير.


المصادر والقراءات الإضافية

Leave a Comment

إعلان