تستغرق مقطع الفيديو أحد عشر ثانية. يقف سياسي أمام منصة، ويبدو أنه يُعلن تحولاً في السياسة، ثم يختفي المقطع من القنوات الرسمية قبل أن يتمكن أي أحد من التحقق منه. وبحلول الوقت الذي يؤكد فيه المدققون أنه مزيف بالكامل بالذكاء الاصطناعي، يكون المقطع قد جمع تسعة ملايين مشاهدة عبر ثلاث منصات. الضرر لا يمكن تداركه.

هذا السيناريو لم يعد افتراضياً. يُنتَج المحتوى المُولَّد بالذكاء الاصطناعي — الصور التركيبية، واستنساخ الأصوات، ومقاطع الـ deepfake، والوثائق المزيفة — على نطاق صناعي. تكافح أدوات الكشف لمواكبة ذلك، ويُستغل الفارق بين الإنشاء والتحقق في كل مكان: من الحملات الانتخابية إلى الاحتيال المالي وصولاً إلى مناطق النزاع الإقليمي.

حجم المشكلة

تشير تقديرات شركة الأمن السيبراني Recorded Future وشركة ذكاء المحتوى Hive Moderation إلى أن المحتوى المُولَّد بالذكاء الاصطناعي يُمثّل الآن جزءاً ذا معنى من المعلومات المضللة الانتشارية. في عام 2025، استُخدمت الصوتيات المُركَّبة بالذكاء الاصطناعي في ما لا يقل عن اثنتي عشرة عملية تأثير موثقة على مستوى العالم. ظهرت مقاطع الـ deepfake في مخططات احتيال استهدفت مؤسسات مالية، إذ استُخدمت انتحالات تركيبية لمديرين تنفيذيين لتفويض تحويلات مصرفية. تنتج أدوات توليد الصور تزويراً فوتوغرافياً مقنعاً — مشاهد حربية، كوارث، صور مدمِّرة للسمعة — في غضون ثوانٍ دون الحاجة إلى أي خبرة متخصصة.

التحدي التقني الجوهري هو اللاتماثل. توليد محتوى تركيبي مقنع يكلف سنتات وثوانٍ. اكتشافه بشكل موثوق يستلزم طرق تحقق مستقلة متعددة، وخبرة في التحليل الجنائي الرقمي، والوصول إلى بنية تحتية للكشف لا تمتلكها معظم المؤسسات ببساطة.

والأسوأ من ذلك أن نماذج الكشف المُدرَّبة على التزييف العميق الحالي تُصبح قديمة بسرعة. حين يُطلق مولّد صور جديد، قد تتجاوز مخرجاته جميع المُصنِّفات الموجودة حتى تتراكم بيانات تدريب جديدة. تتحرك سطح الهجوم بشكل أسرع من الدفاع.

C2PA: معيار الإسناد التشفيري

الاستجابة الهيكلية الأجدية للمحتوى التركيبي هي Coalition for Content Provenance and Authenticity (C2PA)، وهو هيئة توحيد معايير متعددة القطاعات تضم Adobe وMicrosoft وGoogle وOpenAI وSony وBBC وأكثر من 100 منظمة أخرى. نهج C2PA لا يهدف إلى الكشف عن المزيفات بعد فوات الأوان — بل إلى إنشاء سلسلة حضانة يمكن التحقق منها تشفيرياً للمحتوى الأصيل.

تعمل الآلية كختم مقاوم للتلاعب. حين تُنشئ كاميرا أو أداة إبداعية ملفاً، تُضمِّن بياناً موقعاً — سجلاً منظماً يحتوي على جهاز المصدر والطوابع الزمنية وسجل التعديل وأي أدوات ذكاء اصطناعي مستخدمة. يُوقَّع هذا البيان تشفيرياً باستخدام سلسلة هيئة إصدار شهادات، مما يجعل التزوير بأثر رجعي مستحيلاً حسابياً. حين يصادف مستخدم محتوى على الإنترنت، يمكن لعارض متوافق مع C2PA فحص البيان والتحقق مما إذا كان الإسناد المُعلَن يتطابق.

أصدرت كبرى شركات صناعة الكاميرات بما فيها Nikon وCanon وLeica أجهزةً تُطبّق معيار C2PA. لوحة Content Credentials من Adobe مُدمجة الآن في Photoshop وFirefly وAdobe Stock. دمج Microsoft دعم بيان C2PA في Bing Image Creator وخدمات Azure AI. وأعلنت OpenAI أنها ستُضمِّن بيانات C2PA في مخرجات DALL-E.

القيد هو سعة الاعتماد. C2PA نظام إسناد، لا نظام كشف شامل. يمكنه تأكيد أن قطعة محتوى مُتحقَّقاً منها أصيلة — لكنه لا يمكنه إثبات أن المحتوى الخالي من البيان مزيف. صورة تركيبية بلا بيانات C2PA ليست بالضرورة احتيالية، لأن معظم الأجهزة والأدوات لا تُضمِّن المعيار بعد. حتى يصبح الاعتماد شبه شامل، فإن غياب البيان لا يُعدّ دليلاً قاطعاً.

الحذف كذلك مصدر قلق. رفع صورة على معظم المنصات الاجتماعية يُزيل البيانات الوصفية بما فيها بيانات C2PA، إلا إذا حافظت المنصة عليها صراحةً. أعلنت Meta وTikTok وYouTube عن درجات متفاوتة من دعم C2PA للمحتوى المُعلَّم بالذكاء الاصطناعي، لكن التطبيق غير متسق والتنفيذ محدود.

Google SynthID: العلامات المائية غير المرئية

تتبع SynthID من Google DeepMind نهجاً مختلفاً. بدلاً من إرفاق بيانات وصفية قابلة للإزالة، تُضمِّن SynthID علامة مائية غير محسوسة مباشرةً في بيكسلات الصورة، أو شكل موجة الملف الصوتي، أو توزيع رموز النص المُولَّد بالذكاء الاصطناعي. صُمِّمت العلامة المائية لتتحمل التحولات الشائعة — القص، والضغط، وضبط الألوان، والتقاط لقطات الشاشة — التي ستُزيل البيانات الوصفية التقليدية.

بالنسبة للصور، تعمل SynthID بتعديل قيم البيكسلات ضمن عملية توليد النموذج وفق أنماط غير مرئية إحصائياً للعين البشرية لكن يمكن للمُصنِّف المُدرَّب اكتشافها. بالنسبة للنصوص، يُحيّز النظام اختيار الرموز لدى النموذج أثناء التوليد بحيث يمكن التعرف على البصمة الإحصائية للمخرجات حتى بعد إعادة الصياغة.

أتاحت Google SynthID عبر منصة Vertex AI الخاصة بها ودمجتها في مخرجات صور Imagen وGemini. في أواخر عام 2025، أصدرت Google نسخة مفتوحة المصدر من SynthID للنصوص، مما مكّن الباحثين والمطورين من دمج منطق الكشف في مسارات العمل الخاصة بهم.

القيد الصريح: لا توجد علامة مائية دائمة. المعالجة القسرية للصور، أو الهجمات الخصمية، أو التعديلات الهيكلية الكبيرة بما فيه الكفاية يمكنها تدهور إشارات العلامة المائية أو تدميرها. يمكن للخصم المصمِّم الذي يعلم بوجود مخطط علامة مائية أن يعمل على التحايل عليه. تؤدي SynthID دوراً جيداً ضد الإساءة العادية — إعادة المشاركة، والقص، والتحرير الخفيف — لكنها ليست ضماناً جنائياً. إنها إشارة احتمالية لا دليل تشفيري.

إعلان

أدوات الكشف عملياً

إلى جانب الإسناد والعلامات المائية، ظهرت طبقة من أدوات الكشف القائمة على المُصنِّفات للمؤسسات التي تحتاج إلى تقييم المحتوى بصرف النظر عن وجود إشارات مُضمَّنة.

Hive Moderation توفر واجهات برمجة تطبيقات (APIs) للكشف عن الذكاء الاصطناعي قادرة على تحليل الصور والفيديو والصوت لتحديد الأصل التركيبي. تُدرَّب مُصنِّفاتها على مجموعات بيانات واسعة من مخرجات النماذج التوليدية عبر المنصات الرئيسية وتُحدَّث بانتظام لمتابعة إصدارات النماذج الجديدة. تُستخدم أساساً من قِبل فرق الثقة والسلامة في المنصات وأقسام الاتصالات المؤسسية.

Reality Defender تقدم منصة كشف deepfake في الوقت الفعلي تستهدف الخدمات المالية والتحقق الإعلامي وعملاء القطاع العام. يُركِّب نهجها عدة نماذج كشف مستقلة ويُقدم حكماً مُرجَّحاً بمستوى الثقة بدلاً من نتيجة ثنائية — وهو تمييز مهم لأن لا مُصنِّفاً واحداً موثوقاً عبر جميع طرق التوليد.

Illuminarty وأدوات مماثلة موجهة للمستهلكين تتيح واجهات كشف سهلة الوصول للصحفيين والباحثين والمستخدمين العاديين. هذه الأدوات مفيدة للفرز الأولي لكنها تحمل معدلات إيجابية كاذبة مرتفعة على الصور الحقيقية المُحرَّرة بشدة ومعدلات كشف منخفضة على أحدث نماذج التوليد.

الواقع الجماعي لأداء أدوات الكشف في 2025-2026 هو أن لا مُصنِّف واحداً يكشف بشكل موثوق عن المحتوى التركيبي عبر جميع طرق التوليد وجميع أنواع المحتوى وجميع الظروف الخصمية. أرقام الدقة المنشورة في مواد تسويق الأدوات تبالغ باستمرار في الأداء على المحتوى الواقعي خارج التوزيع.

لماذا يظل الكشف غير كامل

ثلاثة مشاكل هيكلية تُفسر لماذا يتأخر الكشف باستمرار عن التوليد.

أولاً، تُدرَّب المُصنِّفات على مخرجات نماذج معروفة. مُصنِّف مُدرَّب على مخرجات Stable Diffusion لا يتعمم تلقائياً على الصور من نموذج ملكية أحدث لم يره من قبل. كل إصدار نموذج جديد يُعيد جزئياً ضبط الخط الأساسي للكشف.

ثانياً، الديناميكية الخصمية نشطة. يختبر الباحثون والجهات الخبيثة أدوات التوليد الجديدة مقابل المُصنِّفات الموجودة ويُكرِّرون على التوجيهات وخطوات المعالجة اللاحقة التي تتجاوز الكشف. هذا ليس نظرياً — تُثبت الأوراق الأكاديمية بانتظام أن نماذج الكشف المنشورة يمكن هزيمتها بجهد معتدل.

ثالثاً، المحتوى الواقعي مُشوَّش. الصور الشرعية الملتقطة بكاميرات المستهلكين، والمعالَجة عبر المنصات الاجتماعية، والمضغوطة والمشتركة عبر تطبيقات المراسلة قد تُثير إيجابيات كاذبة من كاشفات مُعايَرة للمحتوى التركيبي النظيف. معدلات الإيجابية الكاذبة المرتفعة تُقوِّض الثقة في أدوات الكشف وتوفر غطاءً للجهات الخبيثة التي تدّعي أن محتواها التركيبي قد رُصد خطأً.

ما القادم: التنظيم والإفصاح الإلزامي

يفرض قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، الذي دخل حيز التطبيق الكامل في 2025، متطلبات إفصاح إلزامي على المحتوى المُولَّد بالذكاء الاصطناعي في سياقات محددة عالية المخاطر. يجب على الأنظمة التي تُولِّد وسائط تركيبية مُوجَّهة للتواصل العام أن تجعل الأصل الذكاء الاصطناعي واضحاً بجلاء. تُطور الدول الأعضاء آليات تنفيذ ومعايير تقنية لتشغيل هذا المتطلب.

لا تمتلك الولايات المتحدة قانوناً فيدرالياً مماثلاً في مطلع 2026، رغم أن عدة ولايات أصدرت تشريعات تستهدف الوسائط التركيبية في السياقات الانتخابية. حافظت الصين على متطلبات العلامة المائية الإلزامية للمحتوى المُولَّد بالذكاء الاصطناعي منذ لوائح عام 2023 الصادرة عن Cyberspace Administration of China.

المسار واضح: المعايير التقنية كـ C2PA وSynthID تتقارب مع المتطلبات التنظيمية التي ستُلزم في نهاية المطاف بالإفصاح عن الإسناد وتصنيف المحتوى التركيبي. بالنسبة للمؤسسات التي تُنتج المحتوى أو توزعه أو تتحقق منه بشكل احترافي، فإن تبني هذه الأدوات قبل المواعيد التنظيمية يُعد قراراً لإدارة المخاطر وتموضعاً في السوق في آنٍ واحد.

إعلان

🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الأهمية بالنسبة للجزائر عالية — أصالة الإعلام والتضليل المعلوماتي من أبرز المخاوف في المنطقة
هل البنية التحتية جاهزة؟ جزئياً — الوصول إلى APIs الكشف متاح؛ لا توجد حلول محلية
هل الكفاءات متوفرة؟ جزئياً — خبرة محدودة في الطب الشرعي للـ deepfake
أفق العمل فوري
أصحاب المصلحة الرئيسيون ARPCE، وسائل الإعلام الجزائرية، ENTV، DZ-CERT، مدارس الصحافة
نوع القرار تكتيكي

خلاصة سريعة: يجب على المؤسسات الإعلامية الجزائرية وفرق الاتصال الحكومية تقييم أدوات مصادقة المحتوى بصورة عاجلة — إذ يُجنَّد التضليل المعلوماتي المُولَّد بالذكاء الاصطناعي كسلاح فعلي في السياسة الإقليمية. دمج مسارات التحقق المتوافقة مع C2PA والفرز بالمُصنِّفات في العمليات التحريرية ممكن اليوم دون الحاجة إلى بنية تحتية محلية، ولا ينبغي انتظار اللحاق التنظيمي الوطني.

المصادر والقراءات الإضافية