أسرع ساعة إزالة في العالم
في 10 فبراير 2026، أصدرت وزارة الإلكترونيات وتقنية المعلومات الهندية (MeitY) تعديلات على قواعد تقنية المعلومات (إرشادات الوسطاء ومدونة أخلاقيات الإعلام الرقمي) لعام 2021، مُرسيةً بذلك أشد تنظيم للمحتوى الاصطناعي صرامةً في أي مكان في العالم. ودخلت التعديلات حيز التنفيذ في 20 فبراير 2026 — بعد نافذة تطبيق لم تتجاوز عشرة أيام — حيث خُفّضت مهلة إزالة محتوى التزييف العميق المُبلّغ عنه من 36 ساعة إلى 3 ساعات بالنسبة لأوامر الحكومة والمحاكم، ومن 24 ساعة إلى ساعتين بالنسبة للصور الحميمية غير التوافقية. كما تفرض القواعد تصنيفات مرئية على جميع المحتوى الاصطناعي، وتشترط تضمين بيانات وصفية لتتبع المصدر، وتقدم أول تعريف قانوني لمصطلح “المعلومات المُنتجة اصطناعياً” (SGI) في القانون الهندي.
تنطبق التعديلات على جميع “وسطاء التواصل الاجتماعي المهمين” العاملين في الهند — المُعرّفين بموجب قواعد تقنية المعلومات القائمة بأنهم المنصات التي تضم أكثر من خمسة ملايين مستخدم هندي مسجل — وكذلك على وسطاء الألعاب الإلكترونية وأي منصة تقدم أدوات إنشاء محتوى مدعومة بالذكاء الاصطناعي للمستخدمين الهنود. ومع تجاوز قاعدة مستخدمي الإنترنت في الهند 950 مليوناً في عام 2025، فإن هذا يشمل فعلياً كل منصة عالمية كبرى.
تعكس سرعة الاستجابة التنظيمية حدّة أزمة التزييف العميق في الهند. فقد أظهرت الأبحاث التي تتبعت حوادث التزييف العميق زيادة بنسبة 280% على أساس سنوي في حالات التزييف العميق في الهند خلال عام 2024، مع تركّز خاص حول الانتخابات العامة، حيث أنفقت الأحزاب السياسية ما يُقدّر بنحو 50 مليون دولار على محتوى مُنتج بالذكاء الاصطناعي، وأُجري أكثر من 50 مليون مكالمة صوتية مستنسخة بالذكاء الاصطناعي في الشهرين السابقين لبدء التصويت. وأثارت حالات التلاعب بالمشاهير غضباً وطنياً، كما أثّرت موجة من الصور الحميمية غير التوافقية على نساء في مختلف أنحاء البلاد. وتعزّزت الإرادة السياسية للتحرك بفعل قضايا بارزة تضمنت مقاطع فيديو مُتلاعب بها لشخصيات سياسية، بما في ذلك تزييفات عميقة تصوّر سياسيين في سيناريوهات ملفقة صُمّمت لإشعال التوترات الطائفية.
بالنسبة لمنصات التقنية العالمية، تُشكّل التعديلات تحدياً تشغيلياً غير مسبوق في حجمه. فتطبيق نظام إزالة خلال ساعتين إلى ثلاث ساعات في بلد يضم قرابة مليار مستخدم للإنترنت و22 لغة رسمية ومعايير محتوى ثقافية خاصة، يتطلب بنية تحتية وعمليات لا تمتلكها معظم المنصات حالياً.
ما تفرضه القواعد فعلياً
يعمل تعديل قواعد تقنية المعلومات لعام 2026 على ثلاث طبقات تنظيمية متمايزة: التزامات الإزالة، ومتطلبات التصنيف، وشروط البيانات الوصفية. وفهم كل طبقة ضروري لاستيعاب الأبعاد الكاملة للتعديل.
تُقدّم طبقة الإزالة نظام استجابة متدرّج. فالمحتوى الذي تعتبره محكمة أو الحكومة غير قانوني يجب إزالته خلال 3 ساعات من تلقي الأمر — انخفاضاً من 36 ساعة بموجب القواعد السابقة. أما بالنسبة لأشد الانتهاكات حساسية، وتحديداً الصور الحميمية غير التوافقية بما في ذلك صور التزييف العميق العارية المُنتجة بالذكاء الاصطناعي، فإن المهلة أقصر: ساعتان، انخفاضاً من 24 ساعة. ويجب الآن حل الشكاوى العامة للمستخدمين خلال 7 أيام، انخفاضاً من 15 يوماً بموجب الإطار السابق.
والأهم أن ساعات الإزالة تعمل بشكل مستمر — لا يوجد استثناء لليالي أو عطلات نهاية الأسبوع أو الأعياد. يجب على المنصات الحفاظ على قدرات إدارة محتوى على مدار الساعة طوال أيام الأسبوع خاصة بالمحتوى الاصطناعي، مع فرق استجابة قادرة على تقييم الشكاوى والتصرف بشأنها ضمن النوافذ الزمنية المحددة. وإذا فشلت المنصة في الالتزام بالمواعيد النهائية، فإنها تخاطر بفقدان حماية الملاذ الآمن بموجب المادة 79 من قانون تقنية المعلومات — مما يعني أنها يمكن أن تُحاسب مباشرة كما لو أنها أنشأت المحتوى غير القانوني. وبالنسبة للانتهاكات الجسيمة التي تتضمن تزييفاً عميقاً للبيانات البيومترية باستخدام التعرف على الوجه أو استنساخ الصوت أو مسح القزحية دون موافقة، يمكن أن تصل العقوبات إلى 250 كرور روبية هندية (حوالي 30 مليون دولار).
تشترط طبقة التصنيف أن يحمل كل محتوى مُنتج أو مُعدّل بالذكاء الاصطناعي يُوزّع عبر المنصات المشمولة تصنيفاً مرئياً ودائماً يُعرّفه على أنه اصطناعي. ويجب أن يكون التصنيف “واضحاً وبارزاً” — بنفس لغة المحتوى، وموضوعاً بحيث يكون مرئياً دون تمرير أو تفاعل. وبالنسبة للمحتوى الصوتي، يُشترط إفصاح مسموع. ومن الجدير بالذكر أن متطلب العلامة المائية بنسبة 10% المُقترح في المسودة السابقة أُسقط في القواعد النهائية لصالح معايير تصنيف مرنة.
تذهب طبقة البيانات الوصفية إلى أبعد من ذلك. فيجب أن يتضمن كل محتوى اصطناعي بيانات وصفية مُضمّنة تُعرّف المحتوى على أنه مُنتج بالذكاء الاصطناعي، وتسجّل تاريخ ووقت الإنشاء، وتُحدّد الأداة أو المنصة المستخدمة في إنشائه، وتستمر عبر التنزيل وإعادة المشاركة. وبينما ترك MeitY المواصفات التقنية الدقيقة مفتوحة، يتوقع المحللون على نطاق واسع أن معايير C2PA (التحالف من أجل مصدر المحتوى وأصالته) ستشكّل أساس الامتثال. ومتطلب استمرار تتبع المصدر طموح تقنياً، إذ إن معظم أنظمة البيانات الوصفية الحالية يمكن تجريدها بسهولة عبر عمليات معالجة الصور الشائعة وضغط وسائل التواصل الاجتماعي والتقاط لقطات الشاشة.
أول تعريف قانوني لـ “المعلومات المُنتجة اصطناعياً”
من أهم مساهمات التعديل في الحوكمة العالمية للذكاء الاصطناعي تعريفه القانوني لمصطلح “المعلومات المُنتجة اصطناعياً” (SGI). فالهند من بين أولى الولايات القضائية الكبرى التي تُقنّن تعريفاً قانونياً يحاول رسم الخط الفاصل بين المحتوى المُنتج بالذكاء الاصطناعي والمحتوى الذي يصنعه الإنسان.
يشمل التعريف أي محتوى صوتي أو مرئي أو سمعي بصري أُنشئ أو عُدّل خوارزمياً ليبدو حقيقياً أو لا يمكن تمييزه عن شخص طبيعي أو حدث واقعي. وهذا يشمل مقاطع الفيديو المزيّفة العميقة، وتقليد الأصوات المُنتج بالذكاء الاصطناعي، والأفاتارات الاصطناعية، ومخرجات الذكاء الاصطناعي التوليدي الأخرى القادرة على انتحال الهوية أو الخداع.
هذا التعريف أوسع وأكثر تحديداً في آن واحد مقارنة بالمقاربات في ولايات قضائية أخرى. فهو أوسع من حيث أنه يشمل المحتوى “المُعدّل خوارزمياً” — وهو عتبة يمكن أن تشمل الصور المُحسّنة بالذكاء الاصطناعي، والصوت المستنسخ، والمحتوى المُعدّل بشكل كبير بالذكاء الاصطناعي. وهو أكثر تحديداً في تركيزه على المحتوى المُصمّم “ليبدو حقيقياً أو لا يمكن تمييزه” عن المادة الأصلية، مما يبدو أنه يستبعد المحتوى الخيالي الواضح المُنتج بالذكاء الاصطناعي والتطبيقات الإبداعية الواضحة.
حدّد المحللون القانونيون عدة نقاط غموض. فعبارة “مُعدّل خوارزمياً” تفتقر إلى عتبة كمّية — في أي مرحلة يتحول التحرير بمساعدة الذكاء الاصطناعي من تحسين إلى إنتاج اصطناعي؟ والتركيز على المحتوى “الذي لا يمكن تمييزه” يطرح تساؤلات حول الفن المُنتج بالذكاء الاصطناعي المُصنّف بوضوح أو العروض التعليمية التوضيحية. كما أن الصياغة الواسعة قد تشمل أدوات البرمجيات التقليدية ذات الميزات المتطورة بشكل متزايد المدعومة بالذكاء الاصطناعي.
أشار MeitY إلى أنه سيُصدر إرشادات تفسيرية لمعالجة هذه النقاط الغامضة، لكن الإرشادات لم تكن متاحة حتى تاريخ نفاذ التعديل. وبالتالي تُترك المنصات لإصدار أحكامها التفسيرية الخاصة، مما يُوجد تناقضاً واحتمال التعرض للمسؤولية القانونية.
إعلان
مخاطر الإفراط في الرقابة وحرية التعبير
أثارت منظمات المجتمع المدني الهندية والمدافعون الدوليون عن حرية الصحافة مخاوف كبيرة بشأن احتمال الإفراط في الرقابة الذي ينطوي عليه التعديل.
تُولّد نوافذ الإزالة المضغوطة ضغطاً هائلاً على مشرفي المحتوى للميل نحو الإزالة. فعندما يكون لدى المشرف ساعتان إلى ثلاث ساعات لتقييم شكوى حول محتوى يُحتمل أنه اصطناعي — بما في ذلك التحقق مما إذا كان المحتوى فعلاً مُنتجاً بالذكاء الاصطناعي، وتقييم ما إذا كان يستوفي العتبة القانونية، وتحديد ما إذا كان يصوّر شخصاً حقيقياً دون موافقته — فإن الاستجابة المنطقية هي الإزالة أولاً والتقييم لاحقاً. وقد حذّر Apar Gupta، مؤسس Internet Freedom Foundation، من أن المواعيد النهائية المضغوطة “تحفّز عمليات الإزالة الدفاعية” وأن “السخرية والمعارضة السياسية والتعبير الفني قد تختفي قبل أي استئناف بشري.”
ذهبت Internet Freedom Foundation إلى أبعد من ذلك، واصفةً التعديلات بأنها تُدخل “انتهاكات جسيمة للحقوق الرقمية تقوّض بشكل جوهري الحمايات الدستورية.” ودعت المنظمة إلى سحب مشروع القواعد، محتجة بأن الجمع بين الجداول الزمنية المستحيلة والعقوبات القاسية لعدم الامتثال يُوجد حافزاً هيكلياً للمنصات لقمع الخطاب بدلاً من المخاطرة بالمسؤولية القانونية.
يُعدّ تطبيق التعديل على المحتوى السياسي حساساً بشكل خاص. فالهند تتمتع بتقليد عريق في السخرية السياسية والمحاكاة الساخرة والتعليق الذي يتضمن في كثير من الأحيان صوراً ومقاطع فيديو مُتلاعب بها. وبينما يتضمن التعديل استثناءً للمحاكاة الساخرة أو السخرية المُحدّدة بوضوح، فإن تحديد ما يُشكّل “مُحدداً بوضوح” يُترك لفرق إدارة المحتوى في المنصات، التي قد تفتقر إلى السياق الثقافي واللغوي للتمييز بين التزييف العميق المضلل والتعليق السياسي الساخر عبر اللغات الإقليمية المتنوعة في الهند.
أعربت منظمات دولية، بما في ذلك لجنة حماية الصحفيين، عن قلقها من أن التعديل قد يُسلّح ضد الصحفيين وشخصيات المعارضة. فالفاعل السياسي الذي يريد قمع محتوى غير مواتٍ يمكنه تقديم شكوى محتوى اصطناعي، مما يُفعّل ساعة الإزالة ويُجبر المحتوى على الخروج من الشبكة بينما تقوم المنصة بتقييم الادعاء. وحتى لو أُعيد المحتوى بعد المراجعة، فإن الإزالة المؤقتة خلال نافذة حرجة قد تخدم غرض المشتكي.
تحديات امتثال المنصات
بالنسبة للمنصات العاملة في الهند، يُوجد التعديل تحديات تشغيلية عبر أبعاد متعددة: الكشف، والإدارة، والتصنيف، والبيانات الوصفية.
الكشف هو التحدي الأساسي. للامتثال لمتطلبات التصنيف والبيانات الوصفية، يجب على المنصات نشر ما يصفه MeitY بـ “التدابير التقنية المعقولة والملائمة” للتحقق من إقرارات المستخدمين بشأن المحتوى الاصطناعي وتحديد المعلومات المُنتجة اصطناعياً غير المُصنّفة عند نقطة التحميل. وأدوات الكشف الحالية بالذكاء الاصطناعي — بما في ذلك المصنّفات التي طوّرتها مختبرات الذكاء الاصطناعي الكبرى والباحثون الأكاديميون — تعاني من قيود كبيرة. فدقة الكشف تتفاوت بشكل واسع حسب نموذج التوليد المُستخدم ونوع المحتوى ودرجة المعالجة اللاحقة، ولا تزال معدلات الإيجابيات الكاذبة مصدر قلق.
القدرة على الإدارة هي التحدي التشغيلي. تتطلب نوافذ الإزالة التي تتراوح بين ساعتين و3 ساعات من المنصات الحفاظ على فرق إدارة محتوى خاصة بالهند قادرة على معالجة الشكاوى في الوقت الفعلي على مدار 24 ساعة في اليوم. وبالنسبة للمنصات التي تتعامل حالياً مع إدارة محتوى الهند من عمليات عالمية مركزية، قد يتطلب ذلك إنشاء فرق مخصصة مقرّها الهند بقدرات لغوية تغطي الهندية والإنجليزية ولغات إقليمية متعددة.
متطلب استمرار البيانات الوصفية هو التحدي التقني. بينما ترك MeitY الصيغة التقنية الدقيقة مفتوحة، يبقى التوقع بأن تنجو البيانات الوصفية من التنزيل والتقاط لقطات الشاشة وإعادة المشاركة مشكلة غير محلولة على نطاق واسع. يوفر معيار C2PA إطاراً لتضمين معلومات المصدر، لكن الخبراء يعترفون بأن لديه ثغرات كبيرة: يمكن تجريد البيانات الوصفية، والتشغيل البيني عبر المنصات ضعيف، والتصنيفات قد تكون غير واضحة، والعديد من أدوات الذكاء الاصطناعي — خاصة النماذج مفتوحة المصدر — تفتقر إلى قدرات تتبع المصدر المدمجة.
أفادت التقارير بأن عدة منصات تواصلت مع MeitY لطلب جدول زمني تدريجي للتطبيق، محتجة بأن نافذة العشرة أيام بين الإخطار والإنفاذ كانت غير كافية لنشر البنية التحتية التقنية المطلوبة. وحتى أواخر فبراير 2026، لم يمنح MeitY تمديدات رسمية لكنه أشار إلى أن الإنفاذ خلال الفترة الأولى سيركز على “الانتهاكات الفاضحة” بدلاً من فجوات الامتثال التقني.
كيف تُقارن مقاربة الهند عالمياً
يأتي تعديل الهند ضمن اتجاه عالمي نحو تنظيم المحتوى الاصطناعي، لكن مقاربته متميزة في عدة جوانب.
يفرض قانون الذكاء الاصطناعي للاتحاد الأوروبي تصنيف المحتوى المُنتج بالذكاء الاصطناعي من خلال التزامات الشفافية، مع مدونة ممارسات لوضع العلامات والتصنيف من المقرر أن تدخل حيز التنفيذ في أغسطس 2026. غير أن الاتحاد الأوروبي لا يفرض جداول زمنية محددة لإزالة التزييف العميق. ويتطلب إطار قانون الخدمات الرقمية إزالة “سريعة” للمحتوى غير القانوني دون تحديد موعد نهائي رقمي، ويُميّز الاتحاد الأوروبي بين التزييف العميق غير القانوني (الذي يجب إزالته) والتزييف العميق المضلل لكن القانوني (حيث يكون العلاج هو التصنيف وليس الإزالة). ويعتمد الاتحاد الأوروبي على التبني الطوعي لمعيار C2PA بدلاً من فرض استمرار البيانات الوصفية.
تحركت الولايات المتحدة بشكل أسرع بشأن التزييف العميق مقارنة بتنظيم الذكاء الاصطناعي الأوسع. فقد جرّم قانون Take It Down Act، الذي وقّعه الرئيس Trump في 19 مايو 2025، النشر غير التوافقي للصور الحميمية بما في ذلك التزييف العميق، مع مطالبة المنصات بإنشاء آليات إخطار وإزالة بحلول مايو 2026. ويُنشئ DEFIANCE Act، الذي أقرّه مجلس الشيوخ في يناير 2026، حقاً مدنياً فيدرالياً لضحايا التزييف العميق غير التوافقي وينتظر إجراء مجلس النواب. وعلى مستوى الولايات، سنّت Texas وCalifornia قوانين خاصة بالتزييف العميق، لكن لا يقترب أي منها من اتساع أو سرعة متطلبات الهند.
يفرض قانون التزييف العميق في كوريا الجنوبية، المُعدّل في سبتمبر 2024، عقوبات جنائية على إنشاء وتوزيع صور التزييف العميق الجنسية غير التوافقية — تصل إلى سبع سنوات سجن للإنشاء أو التوزيع، وما يصل إلى ثلاث سنوات أو غرامة 30 مليون وون (22,600 دولار) للحيازة أو المشاهدة. غير أن قانون كوريا الجنوبية يتناول التزييف العميق الجنسي تحديداً ولا يشمل الفئة الأوسع من المحتوى الاصطناعي.
تُعدّ مهلة الثلاث ساعات للإزالة في الهند الأكثر صرامة في أي مكان في العالم. وللمقارنة، يسمح قانون NetzDG الألماني — الذي كان سابقاً المعيار العالمي لسرعة إزالة المحتوى — بـ 24 ساعة للمحتوى “غير القانوني بشكل واضح” و7 أيام للمحتوى الذي يتطلب تقييماً. وتستخدم مفوضة السلامة الإلكترونية الأسترالية إطار مدونة صناعية ينطبق على المواد الحقيقية والاصطناعية على حد سواء لكنه أكثر مرونة وأقل تقييداً من قواعد الهند.
والسؤال هو ما إذا كانت مقاربة الهند ستثبت فعاليتها أم أن الجداول الزمنية الصارمة ستدفع المحتوى الاصطناعي نحو منصات خارج نطاق الرقابة التنظيمية أو نحو القنوات المشفرة. وتشير تجربة أنظمة تنظيم المحتوى الصارمة الأخرى — بما في ذلك تطبيق قانون تقنية المعلومات الهندي نفسه — إلى أن تأثيرات الإزاحة حقيقية وكبيرة. وقد تتطلب الحوكمة الفعالة للمحتوى الاصطناعي في نهاية المطاف تنسيقاً دولياً بدلاً من إجراء وطني أحادي الجانب مهما كان طموحاً.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | عالية — تزايد انتشار وسائل التواصل الاجتماعي في الجزائر والاستحقاقات الانتخابية القادمة يجعلان تنظيم التزييف العميق مسألة ملحّة؛ وقواعد الهند توفر نموذجاً يمكن الاستفادة منه ومن مخاطره على حد سواء |
| البنية التحتية جاهزة؟ | لا — تفتقر الجزائر إلى بنية تحتية مخصصة لإدارة المحتوى، وقدرات كشف التزييف العميق، والآلية التنظيمية لإنفاذ تفويضات الإزالة السريعة |
| المهارات متوفرة؟ | جزئياً — توجد بعض الخبرات التقنية في الجامعات الجزائرية ومجتمع الأمن السيبراني، لكن كشف التزييف العميق والتحقق من محتوى الذكاء الاصطناعي لم تتحول بعد إلى كفاءات راسخة |
| الجدول الزمني للعمل | 6-12 شهراً — ينبغي للجزائر البدء في تطوير إطار سياسات للمحتوى الاصطناعي ودراسة تحديات تطبيق النموذج الهندي قبل محاولة قواعد مماثلة |
| أصحاب المصلحة الرئيسيون | وزارة البريد والمواصلات السلكية واللاسلكية، سلطة ضبط البريد والاتصالات الإلكترونية (ARPCE)، الوكالة الوطنية لترقية تكنولوجيات الإعلام والاتصال (ANPT)، منصات التواصل الاجتماعي الجزائرية، منظمات المجتمع المدني، السلطات القضائية، باحثو الأمن السيبراني |
| نوع القرار | استراتيجي — تهديدات التزييف العميق للانتخابات الجزائرية والشخصيات العامة والتماسك الاجتماعي تتطلب حوكمة استباقية، لكن المقاربة يجب أن توازن بين سلامة المحتوى وحرية التعبير |
خلاصة سريعة: نموذج الإزالة خلال 3 ساعات في الهند ذو صلة بالجزائر حيث يواجه كلا البلدين نمواً سريعاً في المعلومات المضللة المُنتجة بالذكاء الاصطناعي ويتمتعان بسكان متنوعين ومتعددي اللغات. ينبغي للجزائر دراسة مقاربة الهند — خاصة مخاطر الإفراط في الرقابة والتحديات التقنية لاستمرار البيانات الوصفية — قبل صياغة قواعدها الخاصة للمحتوى الاصطناعي. والمقاربة التدريجية بجداول زمنية أولية أطول والاستثمار في البنية التحتية للكشف ستكون أكثر واقعية بالنظر للقدرات الحالية للجزائر.
المصادر والقراءات الإضافية
- India’s 2026 Amendment to IT Rules: Regulation of Deepfakes, AI Content and the Three-Hour Takedown Regime — Mondaq
- India Orders Social Media Platforms to Take Down Deepfakes Faster — TechCrunch
- Three Hours to Comply: India’s New Rules for AI-Generated Content and Deepfakes — LiveLaw
- Withdraw the Draft Synthetic Information IT Rules, 2025 — Internet Freedom Foundation
- The 3-Hour Countdown: India’s New AI and Deepfake Rules Spark a Free Speech Firestorm — Sify
- India Targets Deepfakes and AI-Generated Content: Key Changes Under MeitY’s 2026 Amendments — Lexology





إعلان