الذكاء الاصطناعيالأمن السيبرانيالبنية التحتيةالمهاراتالسياسةالشركات الناشئةالاقتصاد الرقمي

وسم محتوى الذكاء الاصطناعي: السباق لإثبات ما هو حقيقي

فبراير 24, 2026

AI watermark content authenticity deepfake detection

أزمة المصداقية لم تعد افتراضية

في يناير 2024، حثّت مكالمات آلية مُولّدة بالذكاء الاصطناعي تنتحل شخصية الرئيس Biden ناخبي New Hampshire على البقاء في منازلهم أثناء الانتخابات التمهيدية. واجه المستشار السياسي وراء المخطط غرامة 6 ملايين دولار من FCC و13 تهمة جنائية بقمع التصويت. في العام نفسه، استُخدم فيديو تزييف عميق للمدير المالي لشركة الهندسة Arup ومديرين تنفيذيين آخرين في مكالمة فيديو خدعت موظفاً مالياً في هونغ كونغ لإجراء 15 تحويلاً بلغ مجموعها 25.6 مليون دولار إلى حسابات احتيالية. بحلول 2026، بلغت الصور والصوت والفيديو المُولّدة بالذكاء الاصطناعي عتبة جودة أصبح فيها الكشف البشري غير موثوق وظيفياً — وجدت دراسة من University of Waterloo أن المشاركين حددوا الوجوه المُولّدة بالذكاء الاصطناعي بشكل صحيح 61% فقط من الوقت، أقل بكثير من دقة 85% التي توقعها الباحثون.

لم تعد المشكلة محصورة في الحوادث البارزة. تقييمات المنتجات المُولّدة بالذكاء الاصطناعي تغمر منصات التجارة الإلكترونية. الأوراق الأكاديمية الاصطناعية تلوّث قواعد بيانات البحث. مكالمات التصيد بأصوات مُولّدة بالذكاء الاصطناعي تنسخ أصوات أفراد العائلة. حجم المحتوى المُولّد بالذكاء الاصطناعي على الإنترنت ينمو بشكل أُسّي — تُشير بعض التقديرات المُستشهد بها على نطاق واسع إلى أنه بحلول 2026، قد يكون ما يصل إلى 90% من المحتوى الإلكتروني مُولّداً أو مُتلاعباً به اصطناعياً، رغم أن هذه التوقعات تبقى محل جدل.

الوسم الرقمي — تضمين إشارات غير محسوسة في المحتوى المُولّد بالذكاء الاصطناعي تُعرّف أصله الاصطناعي — ظهر كالاستجابة التقنية الرئيسية. لكن الوسم يواجه تحديات جوهرية: يجب أن يكون متيناً بما يكفي للبقاء عند التحرير والضغط والهجمات العدائية، لكن غير محسوس بما يكفي لعدم إضعاف جودة المحتوى. السباق لبناء وسم موثوق هو الآن أحد أكثر التحديات التقنية أهمية في حوكمة الذكاء الاصطناعي.


المشهد التقني: SynthID وC2PA وما بعدهما

SynthID من Google DeepMind هو أبرز نظام وسم ذكاء اصطناعي منشور حالياً على نطاق واسع. أُطلق في البداية للصور المُولّدة بواسطة نموذج Imagen من Google، ثم توسّع SynthID ليشمل النص (وسم توزيعات احتمالية الرموز لمخرجات نماذج اللغة) والصوت والفيديو — مُدمجاً عبر Gemini للنص وImagen للصور وLyria للصوت وVeo للفيديو. يُدمج الوسم أثناء التوليد، مُعدّلاً المخرجات بطرق قابلة للكشف إحصائياً بواسطة خوارزمية تحقق لكنها غير محسوسة للبشر. بحلول 2025، تم وسم أكثر من 10 مليارات قطعة محتوى بـ SynthID. جعلت Google SynthID Text مفتوح المصدر في أكتوبر 2024 عبر Hugging Face ومجموعة Responsible GenAI Toolkit، مع ورقة بحثية مُحكّمة نُشرت في Nature. في مايو 2025، صدر SynthID Detector الموحّد للتحقق من إشارات الوسم عبر أنواع الوسائط.

تتخذ تحالف مصدر المحتوى ومصداقيته (C2PA)، المُؤسس في 2021 من قبل Adobe وArm وBBC وIntel وMicrosoft وTruepic، نهجاً مختلفاً. بدلاً من تضمين علامات مائية غير مرئية، يُرفق C2PA بيانات وصفية مُوقّعة تشفيرياً — «بيانات اعتماد المحتوى» — تُسجّل كيف أُنشئ المحتوى وعُدّل. اعتبره سلسلة حفظ رقمية: صورة مُلتقطة بكاميرا متوافقة مع C2PA تحمل سجلاً مُوقّعاً للالتقاط. إذا حُرّرت في Photoshop (الذي يدعم الآن C2PA)، تُضاف التعديلات لبيانات الاعتماد. إذا أنتج نموذج ذكاء اصطناعي الصورة أو عدّلها، يُسجّل ذلك الإجراء. توسّع التحالف بسرعة — انضم Google في فبراير 2024، وOpenAI في مايو 2024، وAmazon في سبتمبر 2024، وMeta انضمت للجنة التوجيهية. بلغت مبادرة مصداقية المحتوى الأوسع 6,000 عضو بحلول 2025، وأطلق C2PA برنامج المطابقة وقائمة الثقة الرسمية في منتصف 2025 لضمان التشغيل البيني عبر المنصات والأجهزة.

هذه الأساليب متكاملة وليست متنافسة. يعمل الوسم حتى عند حذف البيانات الوصفية (كما يحدث عند رفع المحتوى إلى معظم منصات التواصل الاجتماعي التي تحذف بيانات EXIF والبيانات الوصفية). توفر بيانات C2PA الوصفية معلومات مصدر أغنى لكنها هشة — يمكن لأي شخص حذفها بإعادة حفظ الملف ببساطة. الأنظمة الأكثر متانة تجمع بين الاثنين: وسم مُدمج كإشارة احتياطية وبيانات C2PA الوصفية كسجل مصدر مفصّل عند توفرها.

تشمل الأساليب الأخرى البصمة الرقمية (إنشاء تجزئة للمحتوى المُولّد بالذكاء الاصطناعي المعروف والحفاظ على قاعدة بيانات للبحث) والكشف القائم على المُصنّف (تدريب ذكاء اصطناعي لكشف المحتوى المُولّد بالذكاء الاصطناعي). مُصنّف النصوص من OpenAI، المُطلق في يناير 2023 والمسحوب بعد ستة أشهر بسبب معدل إيجابيات صحيحة 26% فقط ومعدل إيجابيات كاذبة 9%، أوضح صعوبة نهج المُصنّف. تحسنت الكواشف الأحدث مثل GPTZero وOriginality.ai لكنها لا تزال تنتج إيجابيات كاذبة بمعدلات تجعلها غير ملائمة للقرارات عالية المخاطر.


إعلان

الدفع التشريعي: التفويضات قادمة — بشكل متفاوت

يتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي التزامات شفافية صريحة للمحتوى المُولّد بالذكاء الاصطناعي بموجب المادة 50. يجب على مزودي أنظمة الذكاء الاصطناعي التي تولّد صوتاً أو صوراً أو فيديو أو نصاً اصطناعياً ضمان وسم المخرجات بتنسيق قابل للقراءة آلياً. يجب على الناشرين الذين ينشرون محتوى مُولّداً بالذكاء الاصطناعي قد يُخلط بمحتوى حقيقي الإفصاح عن أصله الاصطناعي. تدخل هذه الأحكام حيز التنفيذ في 2 أغسطس 2026 — مما يجعل الاتحاد الأوروبي أول جهة قضائية بإنفاذ ملزم لتفويضات وسم محتوى الذكاء الاصطناعي. لدعم التطبيق، يُطوّر الاتحاد الأوروبي مدونة ممارسات حول الشفافية للمحتوى المُولّد بالذكاء الاصطناعي، مع مسودة أولى صدرت أواخر 2025 وانتهاء متوقع في منتصف 2026. ومع ذلك، وجدت دراسة مارس 2025 شملت 50 مولّد صور ذكاء اصطناعي مُستخدماً على نطاق واسع أن 38% فقط تُطبّق حالياً وسماً كافياً و18% فقط تُطبّق وسماً مناسباً للتزييف العميق — فجوة يجب على الصناعة سدّها سريعاً.

تحركت الصين مبكراً. منذ يناير 2023، تُلزم أحكام التركيب العميق الصينية — الصادرة بشكل مشترك من إدارة الفضاء الإلكتروني (CAC) ووزارة الصناعة وتكنولوجيا المعلومات ووزارة الأمن العام — مزودي المحتوى المُولّد بالذكاء الاصطناعي بإضافة علامات مائية وتسميات قابلة للتعريف. واصلت CAC تشديد المتطلبات، مُصدرةً في سبتمبر 2024 مشروع تدابير لوسم المحتوى الاصطناعي المُولّد بالذكاء الاصطناعي من شأنها توحيد الوسم عبر جميع خدمات الذكاء الاصطناعي التوليدي.

في الولايات المتحدة، المشهد التشريعي مُجزّأ ومتغير. قانون NO FAKES (Nurture Originals, Foster Art, and Keep Entertainment Safe)، المُعاد تقديمه في الكونغرس الـ 119 في أبريل 2025 كـ S.1367 بدعم ثنائي الحزب في مجلس الشيوخ، سيُنشئ حقاً فيدرالياً في التحكم باستخدام الشبه في المحتوى المُولّد بالذكاء الاصطناعي. يبقى في لجنة القضاء بمجلس الشيوخ. قانون كاليفورنيا AB 2655، المُوقّع كقانون في سبتمبر 2024 لإلزام المنصات الكبرى بوسم أو إزالة المحتوى الانتخابي المُضلل المُولّد بالذكاء الاصطناعي، أُبطل لاحقاً من قبل قاضٍ فيدرالي لأسباب تتعلق بالقسم 230 والتعديل الأول — مما يُوضح الهشاشة القانونية لتنظيم التزييف العميق على مستوى الولاية. على المستوى الفيدرالي، كان الأمر التنفيذي 14110 بشأن سلامة الذكاء الاصطناعي، المُوقّع في أكتوبر 2023، قد كلّف NIST بتطوير معايير لمصادقة محتوى الذكاء الاصطناعي، وأسفر عن تقرير NIST AI 100-4 حول تقليل المخاطر من المحتوى الاصطناعي (نهائي نوفمبر 2024). لكن الأمر 14110 أُلغي من قبل الرئيس Trump في يناير 2025، واستُبدل بالأمر 14179 («إزالة العوائق أمام الريادة الأمريكية في الذكاء الاصطناعي»)، الذي لا يتضمن تفويضات مماثلة لمصادقة المحتوى. يبقى تقرير NIST مرجعاً تقنياً قيّماً، لكن الإطار السياسي الفيدرالي الذي كلّف بإعداده لم يعد قائماً. جدير بالذكر أنه في يناير 2025، نشرت NSA وCISA إرشادات مشتركة حول بيانات اعتماد المحتوى لسلامة الوسائط المتعددة — إشارة إلى أن وكالات الأمن القومي تعترف بالتهديد حتى مع تباطؤ الزخم التنظيمي.

التحدي أن تفويضات الوسم تخلق حوافز غير متماثلة. مزودو الذكاء الاصطناعي الشرعيون (OpenAI وGoogle وMeta وAnthropic) سيمتثلون لمتطلبات الوسم. الأطراف الخبيثة التي تستخدم نماذج مفتوحة المصدر أو أنظمة مُدرّبة مخصصة لن تفعل ذلك. يمكن لخصم مُصمم ضبط نموذج مفتوح المصدر لتوليد محتوى بدون وسم، أو استخدام تقنيات عدائية لإزالة الأوسام من المحتوى المُولّد. يرفع الوسم الحد الأدنى — مما يجعل إساءة الاستخدام العَرَضية أصعب — لكنه لا يُزيل التهديدات المتطورة.


المتانة والهجمات العدائية وحدود الوسم

التحدي التقني الجوهري هو المتانة. يجب أن يبقى الوسم عند التحويلات الشائعة: ضغط JPEG، تغيير الحجم، الاقتصاص، تعديل الألوان، التقاط الشاشة، وتحويل التنسيق. للصوت، يجب أن يبقى عند إعادة التسجيل وتغييرات السرعة وإضافة ضوضاء الخلفية. للنص، يجب أن يبقى عند إعادة الصياغة والترجمة وإعادة الكتابة الجزئية. أظهر بحث من University of Maryland، بقيادة Soheil Feizi، أن كثيراً من مخططات الوسم الحالية يمكن هزيمتها بتحويلات بسيطة نسبياً. أفاد فريق UMD بكسر جميع أوسام «الاضطراب المنخفض» المُختبرة وحدّد مقايضة جوهرية: يمكن لمخططات كشف الوسم أن تتمتع بأداء عالٍ (إيجابيات كاذبة قليلة) أو متانة عالية ضد الهجمات العدائية (سلبيات كاذبة قليلة)، لكن ليس الاثنين معاً في آن واحد.

نهج SynthID في وسم النص — تحيز احتمالات اختيار الرموز أثناء التوليد — قابل للكشف نظرياً لكنه يواجه تحديات مع النصوص القصيرة (حيث الإشارة الإحصائية ضعيفة جداً) ومع المخرجات التي يُحرّرها بشر لاحقاً. وثيقة مُولّدة بالذكاء الاصطناعي بنسبة 80% ومُحرّرة بشرياً بنسبة 20% قد تقع تحت عتبة الكشف. الهجمات العدائية المُصممة خصيصاً لإزالة الأوسام (بإضافة ضوضاء، أو إعادة توليد المحتوى عبر نموذج غير موسوم، أو استخدام نقل الأسلوب) تُقلل الموثوقية أكثر.

الإجماع البحثي الناشئ هو أن لا تقنية وسم واحدة ستكون متينة عالمياً. بدلاً من ذلك، يتحرك المجال نحو مقاربات متعددة الطبقات: الجمع بين الأوسام المُدمجة ومعايير البيانات الوصفية (C2PA) وقواعد بيانات بصمات المحتوى وأساليب الكشف الإحصائي. تُظهر البنى الهجينة المستخدمة لمحوّلات الرؤية ونماذج الانتشار وعوداً بتحسين المقاومة للهجمات العدائية. البنية التحتية للمصدر — الأنظمة التي تتحقق من معلومات المصداقية وتخزّنها وتستعلم عنها — قد تكون في النهاية أهم من أي تقنية وسم فردية. بُني الإنترنت بدون طبقة مصداقية. إضافة واحدة بأثر رجعي هي من أصعب التحديات التقنية والمؤسسية في عصر الذكاء الاصطناعي.

إعلان


🧭 رادار القرار (المنظور الجزائري)

البُعد التقييم
الأهمية بالنسبة للجزائر متوسطة — مخاطر التزييف العميق تنطبق على الانتخابات والإعلام والتجارة الجزائرية؛ منصات المحتوى العاملة في الجزائر ستحتاج للامتثال للمعايير الناشئة
هل البنية التحتية جاهزة؟ جزئي — المعايير التقنية (C2PA وSynthID) مفتوحة وقابلة للتبني، لكن وسائل الإعلام والمنصات الجزائرية لم تُطبّقها بعد
هل المهارات متاحة؟ جزئي — برامج علوم الحاسوب تغطي التشفير والتعلم الآلي الأساسيين؛ الخبرة المتخصصة في مصدر المحتوى نادرة
الجدول الزمني للعمل 12-18 شهراً لتبني معايير C2PA في المؤسسات الإعلامية الجزائرية؛ 2-3 سنوات للأُطر التنظيمية
أصحاب المصلحة الرئيسيون المؤسسات الإعلامية الجزائرية، سلطة ضبط السمعي البصري (ARAV)، وزارة الاتصال، منصات التواصل الاجتماعي العاملة في الجزائر، السلطات الانتخابية
نوع القرار رصد ومتابعة

خلاصة سريعة: ينبغي للمؤسسات الإعلامية الجزائرية البدء في تقييم دمج C2PA في محتواها المنشور الآن، قبل أن تفرض أزمة تبنياً ارتجالياً. يجب على سلطة ضبط السمعي البصري (ARAV) متابعة أحكام الشفافية في قانون الذكاء الاصطناعي للاتحاد الأوروبي كنموذج لمتطلبات جزائرية مستقبلية. يجب على السلطات الانتخابية تطوير بروتوكولات استجابة لحوادث التزييف العميق قبل الدورة الانتخابية القادمة.

المصادر والقراءات الإضافية

Leave a Comment

إعلان