الذكاء الاصطناعيالأمن السيبرانيالبنية التحتيةالمهاراتالسياسةالشركات الناشئةالاقتصاد الرقمي

مسؤولية المنصات 2026: المادة 230 وقانون الخدمات الرقمية والمعركة العالمية على قواعد الإنترنت

فبراير 23, 2026

Scales of justice with social media icons vs government capitol dome over city skyline

ستة وعشرون كلمة صنعت الإنترنت

تتضمن المادة 230 (Section 230) من قانون آداب الاتصالات الأمريكي لعام 1996 ما يعتبره الخبراء القانونيون أكثر جملة تأثيراً في تاريخ الإنترنت. هذا الحكم الوحيد أرسى الأساس القانوني لمنصات المحتوى الذي يُنشئه المستخدمون. بدونه، كان Facebook وYouTube وX وReddit وكل منصة أخرى تستضيف محتوى المستخدمين ستتحمل المسؤولية القانونية عن كل منشور تشهيري، وكل انتهاك لحقوق الملكية الفكرية، وكل تصريح غير قانوني يصدره مليارات مستخدميها.

على مدار ثلاثة عقود، وفّرت المادة 230 حصانة شبه مطلقة: استطاعت المنصات استضافة محتوى المستخدمين دون اعتبارها ناشرة لذلك المحتوى، وإدارة المحتوى (حذف المنشورات وحظر المستخدمين) دون فقدان حصانتها. هذه الحماية المزدوجة مكّنت النمو الهائل لشبكات التواصل الاجتماعي والأسواق الإلكترونية والويب التشاركي بشكل عام.

في عام 2026، يتعرض هذا الإطار لهجوم من كل الاتجاهات. فرض الاتحاد الأوروبي أول غرامة كبرى في إطار نموذج تنظيمي مختلف جذرياً. يناقش الكونغرس الأمريكي مشاريع قوانين من شأنها إنهاء المادة 230 بالكامل. يطرح المحتوى المُولَّد بالذكاء الاصطناعي (AI) أسئلة مسؤولية لم يتخيلها واضعو قانون عام 1996. وتعيد دول من أستراليا إلى البرازيل كتابة أُطر مسؤولية المنصات الخاصة بها في الوقت الفعلي.


قانون الخدمات الرقمية الأوروبي: من القواعد إلى الغرامات

يمثل قانون الخدمات الرقمية (Digital Services Act – DSA)، الذي دخل حيز التنفيذ الكامل في فبراير 2024، ردّ الاتحاد الأوروبي على المادة 230. حيث تمنح المادة 230 حصانة واسعة بالتزامات ضئيلة، يفرض قانون الخدمات الرقمية مسؤوليات متدرجة حسب حجم المنصة ونوعها.

التزامات جميع الوسطاء عبر الإنترنت

  • تقارير الشفافية: نشر تقارير منتظمة عن أنشطة إدارة المحتوى، بما في ذلك عدد أوامر الإزالة الواردة من السلطات، وعدد المحتويات المحذوفة، وعدد شكاوى المستخدمين
  • وضوح شروط الخدمة: يجب أن تكون الشروط واضحة ومتاحة للعموم ومُطبَّقة بشكل متسق
  • الإخطار والإجراء: تطبيق آليات تمكّن المستخدمين من الإبلاغ عن المحتوى غير القانوني؛ والاستجابة للبلاغات في وقت معقول
  • التعاون مع السلطات: الاستجابة للأوامر القانونية الصادرة عن السلطات الوطنية لإزالة المحتوى غير القانوني

التزامات إضافية للمنصات الإلكترونية

  • آلية الشكاوى الداخلية: يجب أن يتمتع المستخدمون الذين يُحذف محتواهم بحق الطعن
  • تسوية النزاعات خارج المحاكم: يجب أن توفر المنصات إمكانية الوصول إلى هيئات مستقلة لتسوية النزاعات
  • المُبلِّغون الموثوقون: التعاون مع المنظمات المعتمدة التي تحظى بلاغاتها عن المحتوى غير القانوني بمعالجة ذات أولوية
  • الشفافية الإعلانية: يجب أن تكون جميع الإعلانات مُعلَّمة بوضوح، ويجب أن يتمكن المستخدمون من معرفة من دفع ثمن الإعلان ومعايير الاستهداف الرئيسية

التزامات المنصات الإلكترونية الكبيرة جداً (VLOPs)

تخضع المنصات التي تضم أكثر من 45 مليون مستخدم شهري في الاتحاد الأوروبي لأشد المتطلبات صرامة:

  • تقييم المخاطر النظامية: التقييم السنوي للمخاطر التي تشكلها خدماتها، بما في ذلك نشر المحتوى غير القانوني، والآثار السلبية على الحقوق الأساسية، والتلاعب بالانتخابات، والتأثيرات على الصحة العامة والقاصرين
  • تدابير التخفيف من المخاطر: تنفيذ إجراءات لمعالجة المخاطر النظامية المُحدَّدة
  • التدقيق المستقل: الخضوع لتدقيقات سنوية مستقلة للامتثال
  • إتاحة البيانات للباحثين: تزويد الباحثين المؤهلين بإمكانية الوصول إلى بيانات المنصة لدراسة المخاطر النظامية
  • شفافية أنظمة التوصية: السماح للمستخدمين باختيار نسخة من خوارزميات التوصية لا تعتمد على التنميط

المنصات الكبيرة جداً المُعيَّنة تشمل: Meta (Facebook، Instagram)، Google (YouTube، Search، Maps، Play)، Apple (App Store)، Amazon (Marketplace)، Microsoft (LinkedIn، Bing)، TikTok، X، Snapchat، Pinterest، Booking.com، Alibaba AliExpress، Temu، Wikipedia، وZalando.

التطبيق: أول غرامة تسقط

يُطبَّق قانون الخدمات الرقمية من قِبَل منسقي الخدمات الرقمية في كل دولة عضو في الاتحاد الأوروبي ومباشرة من قِبَل المفوضية الأوروبية للمنصات الكبيرة جداً. يمكن أن تصل غرامات عدم الامتثال إلى 6% من إجمالي الإيرادات السنوية العالمية — أي مليارات اليورو المحتملة لأكبر المنصات.

في 5 ديسمبر 2025، أصدرت المفوضية الأوروبية أول قرار عدم امتثال بموجب قانون الخدمات الرقمية، وفرضت على X (المعروفة سابقاً بـ Twitter) غرامة بقيمة 120 مليون يورو بسبب ثلاث مخالفات:

  1. التصميم المضلل لعلامة التحقق الزرقاء (45 مليون يورو): نظام التحقق المدفوع في X، الذي يبيع العلامات الزرقاء مقابل 7 يورو شهرياً دون التحقق الحقيقي من الهوية، ينتهك حظر قانون الخدمات الرقمية على التصميم المضلل. لا يستطيع المستخدمون التمييز بشكل موثوق بين الحسابات الموثقة والمشتركين المدفوعين.
  2. إخفاقات الشفافية الإعلانية (35 مليون يورو): يفتقر مستودع الإعلانات في X إلى معلومات جوهرية تشمل محتوى الإعلانات والمواضيع والكيانات القانونية المموّلة للإعلانات.
  3. إخفاقات إتاحة البيانات للباحثين (40 مليون يورو): تمنع شروط خدمة X الباحثين من الوصول إلى البيانات العامة، منتهكة بشكل مباشر التزامات قانون الخدمات الرقمية المتعلقة بوصول الباحثين.

بالإضافة إلى غرامة X، فتحت المفوضية 14 تحقيقاً رسمياً في امتثال المنصات الكبيرة جداً حتى أواخر 2025. في أكتوبر 2025، أثبتت النتائج الأولية أن كلاً من TikTok وMeta لا تلتزمان بمتطلبات قانون الخدمات الرقمية في إتاحة البيانات للباحثين، وأن Facebook وInstagram تفتقران إلى آليات سهلة الاستخدام للإبلاغ عن المحتوى غير القانوني. وتفحص الإجراءات المتخذة ضد AliExpress (المفتوحة في مارس 2024) مسألة تتبّع البائعين والشفافية الإعلانية وإدارة مخاطر المحتوى غير القانوني. كما تخضع Temu للتحقيق أيضاً.


المادة 230 تحت الضغط في الولايات المتحدة

بينما يُطبِّق الاتحاد الأوروبي إطاره الجديد، تخوض الولايات المتحدة نقاشاً متصاعداً حول مستقبل المادة 230.

إشارات المحكمة العليا

في قضية Gonzalez ضد Google (2023)، نظرت المحكمة العليا فيما إذا كانت التوصية الخوارزمية من YouTube لمقاطع تجنيد تنظيم داعش محمية بالمادة 230. رفضت المحكمة في النهاية الفصل في المسألة الجوهرية للمادة 230، وحسمت القضية على أسس أضيق تتعلق بقانون مكافحة الإرهاب. لكن مجرد قبول المحكمة للنظر في القضية أشار إلى استعدادها لإعادة النظر في نطاق حصانة المادة 230.

يبقى السؤال دون حل: هل تحمي المادة 230 التضخيم الخوارزمي؟ عندما تروّج خوارزمية التوصية في منصة ما لمحتوى معين لمستخدمين محددين بشكل نشط، هل تكتفي المنصة باستضافة المحتوى (محمي) أم تتخذ قراراً تحريرياً بشأن ما تُضخِّمه (قد لا يكون محمياً)؟

تهديد الإنهاء

في ديسمبر 2025، قدّم مجموعة من أعضاء مجلس الشيوخ من الحزبين مشروع قانون إنهاء المادة 230 (Sunset Section 230 Act – S.3546)، الذي من شأنه إنهاء المادة 230 في الأول من يناير 2027 ما لم يسنّ الكونغرس إطاراً بديلاً. يقود المشروع السيناتوران Lindsey Graham (جمهوري – ساوث كارولينا) وDick Durbin (ديمقراطي – إلينوي)، بدعم من السيناتورات Grassley وWhitehouse وHawley وKlobuchar وBlackburn وBlumenthal وMoody وWelch. كما قُدِّم مشروع مرافق في مجلس النواب من قبل النائبة Harriet Hageman (جمهورية – وايومنغ).

الدعم من كلا الحزبين لافت — لكن التحدي السياسي يظل متناقضاً. يريد الجمهوريون إصلاح المادة 230 لمنع المنصات من حذف المحتوى المحافظ، بينما يريد الديمقراطيون الإصلاح لإجبار المنصات على حذف المزيد من المحتوى الضار. هذه الدوافع المتعارضة تجعل التوافق التشريعي على إطار بديل أمراً صعباً.

قانون TAKE IT DOWN: أول قانون فيدرالي لإزالة المحتوى

أبرز تطور تشريعي أمريكي هو قانون TAKE IT DOWN، الذي وقّعه الرئيس Trump في 19 مايو 2025. يُجرِّم القانون النشر غير التوافقي للصور الحميمية، بما في ذلك التزييف العميق (deepfakes) المُولَّد بالذكاء الاصطناعي، ويُلزم المنصات بإزالة هذا المحتوى خلال 48 ساعة من تلقي طلب إزالة مستوفٍ للشروط. دخل الحظر الجنائي حيز التنفيذ فوراً؛ وأمام المنصات مهلة حتى 19 مايو 2026 لإنشاء إجراءات الإخطار والإزالة المطلوبة.

يمثل هذا أول مرة يفرض فيها القانون الفيدرالي الأمريكي التزاماً محدداً بإزالة المحتوى على المنصات بجداول زمنية محددة — وهو خروج عن نموذج حصانة المادة 230.

قانون سلامة الأطفال على الإنترنت (KOSA)

أُعيد تقديم قانون سلامة الأطفال على الإنترنت (Kids Online Safety Act) في الكونغرس الـ119 في مايو 2025 وتقدّم عبر لجنة فرعية في مجلس النواب في ديسمبر 2025. تتطلب نسخة 2025 من المنصات المشمولة تطبيق سياسات معقولة لمنع الأضرار المحددة التي تلحق بالقاصرين المعروفين، وإن كانت قد رُوجعت عن النسخ السابقة لتشمل حماية التعديل الأول (حرية التعبير). يحظى القانون بدعم من كلا الحزبين لكن مصيره النهائي يظل غير مؤكد وسط أولويات تشريعية متنافسة.

مشاريع إصلاح أخرى

قُدِّمت عدة مشاريع قوانين إضافية لتضييق حصانة المادة 230:

  • قانون EARN IT — يُشرط حصانة المادة 230 بالالتزام بأفضل الممارسات لمنع الاستغلال الجنسي للأطفال
  • قانون SAFE TECH — يُضيِّق الحصانة لاستبعاد المحتوى المدفوع والمحتوى الذي يسهّل النشاط غير القانوني وانتهاكات الحقوق المدنية
  • قانون PACT — يُلزم المنصات بشرح سياسات إدارة المحتوى وتوفير أنظمة طعن والاستجابة لأوامر المحاكم ضمن مُهَل محددة

لم يُقَرّ أي منها حتى مطلع 2026.


إعلان

المحتوى المُولَّد بالذكاء الاصطناعي: الحدود الجديدة للمسؤولية

يطرح صعود الذكاء الاصطناعي التوليدي (Generative AI) أسئلة مسؤولية لم تُصمَّم الأُطر القائمة للإجابة عنها.

هل المحتوى المُولَّد بالذكاء الاصطناعي محمي بالمادة 230؟ عندما يطلب مستخدم من نموذج ذكاء اصطناعي توليد نص وينشره على وسائل التواصل الاجتماعي، من هو “مزوّد المحتوى المعلوماتي” — المستخدم أم شركة الذكاء الاصطناعي أم كلاهما؟ إذا اختلق الذكاء الاصطناعي تصريحات تشهيرية عن شخص حقيقي، فإن المادة 230 لا تقدم إجابة واضحة. طُرحت مشاريع قوانين لإزالة حماية المادة 230 صراحة عن المحتوى المُولَّد بأنظمة الذكاء الاصطناعي.

هل روبوتات الدردشة الذكية مشمولة؟ عندما تنشر منصة روبوت دردشة يعمل بالذكاء الاصطناعي يقدّم نصائح ضارة — معلومات طبية مغلوطة أو تعليمات لأنشطة غير قانونية — هل تستضيف المنصة محتوى طرف ثالث أم تنشر محتواها الخاص؟ تشير التحليلات القانونية الأولى إلى أن المحاكم قد تعامل المحتوى المُولَّد بالذكاء الاصطناعي كخطاب المنصة ذاتها، مما يُسقط حماية المادة 230.

حجم المشكلة: منذ بداية 2025، وُثِّقت أكثر من 500 حالة محتوى مُختلَق بالذكاء الاصطناعي قُدِّمت أمام المحاكم الأمريكية. رُفعت أكثر من 70 دعوى انتهاك حقوق ملكية فكرية ضد شركات الذكاء الاصطناعي، مع أكثر من 50 قضية معلّقة أمام المحاكم الفيدرالية الأمريكية.

التزييف العميق وقانون TAKE IT DOWN: قادت الصور الحميمية المُولَّدة بالذكاء الاصطناعي وتقنية التزييف العميق إلى إقرار قانون TAKE IT DOWN. لكن أسئلة المسؤولية الأوسع حول الوسائط الاصطناعية — التضليل المُولَّد بالذكاء الاصطناعي، وانتحال الهوية الاحتيالي، والنُّسخ الرقمية غير التوافقية — تبقى دون معالجة إلى حد كبير من قِبَل التنظيم القائم.


المشهد العالمي: نماذج متباينة تتقارب

بعيداً عن الولايات المتحدة والاتحاد الأوروبي، تطوّر الدول بسرعة أُطر مسؤولية المنصات الخاصة بها — وقد شهد عدد منها تغييرات جوهرية في 2025.

المملكة المتحدة: يفرض قانون السلامة على الإنترنت (Online Safety Act) الصادر عام 2023 واجب عناية على المنصات لحماية المستخدمين من المحتوى غير القانوني والضار. بدأت هيئة Ofcom التطبيق الفعلي في أواخر 2025، بغرامات تصل إلى 18 مليون جنيه إسترليني أو 10% من الإيرادات العالمية (أيهما أعلى) ومسؤولية جنائية محتملة للمديرين التنفيذيين. أصدرت Ofcom أولى غراماتها بموجب القانون: 20,000 جنيه إسترليني ضد 4chan في أكتوبر 2025 لعدم الاستجابة لطلبات المعلومات، و50,000 جنيه إسترليني ضد موقع تعرية رقمية في نوفمبر 2025 لعدم التحقق من العمر. وتجري تحقيقات في 20 موقعاً إباحياً إضافياً، ويُتوقع اتخاذ إجراءات تطبيقية كبرى بشأن سلامة الأطفال في 2026.

أستراليا: يُخوِّل قانون السلامة على الإنترنت (Online Safety Act) لعام 2021 مفوض السلامة الإلكترونية (eSafety Commissioner) أمر إزالة المحتوى الضار خلال 24 ساعة، بعقوبات تصل إلى 49.5 مليون دولار أسترالي. في ديسمبر 2024، ذهبت أستراليا أبعد من ذلك بإقرار قانون تعديل السلامة على الإنترنت (الحد الأدنى لعمر وسائل التواصل الاجتماعي)، الذي يحظر على من هم دون 16 عاماً استخدام منصات التواصل الاجتماعي. دخل الحظر حيز التنفيذ في 10 ديسمبر 2025، ويتعين على منصات تشمل Facebook وInstagram وTikTok وX وYouTube وReddit اتخاذ خطوات معقولة لمنع القاصرين من إنشاء حسابات أو الاحتفاظ بها. أصبحت أستراليا أول دولة تفرض حداً أدنى وطنياً لعمر مستخدمي وسائل التواصل الاجتماعي، فيما تدرس فرنسا والمملكة المتحدة وألمانيا وإيطاليا ودول أخرى إجراءات مماثلة.

البرازيل: وفّر قانون Marco Civil da Internet تاريخياً حصانة للمنصات مشابهة للمادة 230، مع اشتراط الإخطار والإزالة بأمر قضائي. تغيّر هذا الإطار جذرياً في 26 يونيو 2025، عندما أعلنت المحكمة العليا البرازيلية (STF) أن المادة 19 من Marco Civil غير دستورية جزئياً بقرار 8 أصوات مقابل 3. قضت المحكمة بأن ربط مسؤولية المنصات حصرياً بالإزالة بأمر محكمة كان غير كافٍ لمنع التضليل الإعلامي والنشاط الإجرامي. يتطلب نموذج المسؤولية الجديد القائم على الخطأ، المستوحى من قانون الخدمات الرقمية الأوروبي، من المنصات إنشاء تنظيم ذاتي بقواعد إدارة محتوى واضحة، ونشر تقارير شفافية سنوية، والحفاظ على قنوات خدمة عملاء، وتعيين ممثلين قانونيين في البرازيل.

الهند: تتطلب قواعد تكنولوجيا المعلومات (إرشادات الوسطاء) لعام 2021 من المنصات تتبّع “المُرسِل الأول” للرسائل التي تُبلِّغ عنها السلطات — وهو حكم يُقوِّض التشفير من طرف إلى طرف (end-to-end encryption). رفعت WhatsApp طعناً قانونياً أمام المحكمة العليا في دلهي في مايو 2021، ولا تزال القضية جارية. في فبراير 2026، وجّهت المحكمة العليا الهندية توبيخاً حاداً لشركة Meta بشأن ممارساتها في الخصوصية، مما يشير إلى رقابة قضائية مستمرة على عمليات المنصات في البلاد.

الصين: المنصات مسؤولة عن ضمان امتثال جميع المحتوى للقانون الصيني، بدون ملاذ آمن للمحتوى الذي ينشئه المستخدمون. الفحص المسبق باستخدام الذكاء الاصطناعي والمراقبين البشريين إلزامي.


المشكلة التي لم تُحَل: الحجم

التحدي الجوهري لمسؤولية المنصات هو الحجم. تخدم عائلة تطبيقات Meta ما يقارب 4 مليارات مستخدم نشط شهرياً يُنتجون مليارات المحتويات يومياً. يستقبل YouTube أكثر من 500 ساعة من الفيديو كل دقيقة — أي أكثر من 720,000 ساعة فيديو جديد يومياً. لا يمكن لأي قوة بشرية لإدارة المحتوى مراجعة هذا الحجم.

تتحسن إدارة المحتوى بالذكاء الاصطناعي لكنها تظل غير مثالية، حيث ترتكب أخطاء في كلا الاتجاهين: حذف المحتوى المشروع (إفراط في الإدارة) وعدم اكتشاف المحتوى الضار (قصور في الإدارة). التنظيم الذي يُلزم المنصات بإزالة جميع المحتوى غير القانوني دون تحديد جداول زمنية ومعايير واضحة يخلق حوافز للإفراط في الإدارة — تفضّل المنصات حذف المحتوى لتجنب المسؤولية، مما يقمع التعبير المشروع في هذه العملية.

التوتر بين منع الضرر والحفاظ على حرية التعبير ليس مشكلة تقنية لها حل تقني. إنه سؤال قيمي تجيب عنه مجتمعات مختلفة بطرق متباينة بشكل متزايد — وكان عاما 2025-2026 العامين اللذين بدأت فيهما تلك الإجابات بإنتاج عواقب تطبيقية حقيقية.

إعلان


رادار القرار (المنظور الجزائري)

البُعد التقييم
الصلة بالجزائر مرتفعة — الجزائر تصيغ حالياً تشريعاً لتنظيم المنصات يستهدف Facebook وTikTok وYouTube؛ يوفر قانون الخدمات الرقمية نموذجاً مرجعياً لهذا الجهد
البنية التحتية جاهزة؟ جزئياً — تمتلك الجزائر هيئات تنظيمية (ARPT، هيئة الصحافة الرقمية) لكنها تفتقر إلى منسق مخصص للخدمات الرقمية أو وكالة إشراف على المنصات
المهارات متوفرة؟ محدودة — عدد قليل من الخبراء القانونيين والسياسيين الجزائريين متخصصون في تنظيم الإنترنت وحوكمة المنصات؛ يلزم بناء القدرات
الجدول الزمني للعمل فوري إلى 6-12 شهراً — مشروع قانون تنظيم المنصات قيد الدراسة التشريعية بالفعل؛ يجب على الجزائر دراسة نتائج تطبيق قانون الخدمات الرقمية لتوجيه مقاربتها
أصحاب المصلحة الرئيسيون وزارة الاقتصاد الرقمي، وزارة الاتصال، سلطة ضبط البريد والاتصالات الإلكترونية (ARPT)، القضاء الجزائري، المجلس الشعبي الوطني (الصياغة التشريعية)، منظمات المجتمع المدني، الشركات التكنولوجية الناشئة الجزائرية
نوع القرار استراتيجي — يتطلب تطوير سياسة وطنية مستنيرة بأفضل الممارسات الدولية، وخاصة المقاربة المتدرجة للاتحاد الأوروبي

خلاصة سريعة: تقف الجزائر عند نقطة تحول في تنظيم المنصات. مشروع قانون اقتُرح عام 2025 سيُلزم المنصات الكبرى بفتح مكاتب محلية وتخزين البيانات محلياً وإزالة المحتوى غير القانوني خلال 24 ساعة — مستلهماً مباشرة نماذج مثل قانون الخدمات الرقمية الأوروبي وقانون السلامة على الإنترنت الأسترالي. المقاربة المتدرجة للاتحاد الأوروبي (التزامات أخف للمنصات الأصغر، وأثقل للمنصات الكبيرة جداً) هي النموذج الأكثر ملاءمة للجزائر، لأنها توازن بين المساءلة وواقع أن التنظيم المشدد قد يُثبط الاستثمار الرقمي. يجب أن تكون أولويات الجزائر العملية: (1) إنشاء مسارات قانونية قابلة للتنفيذ لإزالة المحتوى من المنصات العالمية التي لا يوجد لها حالياً وجود محلي، (2) ضمان أن الإطار التنظيمي يحمي حرية التعبير ولا يتحول إلى أداة رقابة، و(3) بناء خبرة مؤسسية في حوكمة المنصات الرقمية قبل بدء التطبيق.


المصادر

Leave a Comment

إعلان