الجيل الذي نشأ على الإنترنت يدفع الثمن
تتراكم الأدلة منذ أكثر من عقد. تدهورت الصحة النفسية للمراهقين بشكل ملحوظ منذ الانتشار الواسع للهواتف الذكية ووسائل التواصل الاجتماعي. في الولايات المتحدة، ارتفع معدل الاكتئاب بين الشباب بنحو 52% بين عامَي 2005 و2017، وفقاً لأبحاث منشورة في Journal of Abnormal Psychology. كما ارتفعت معدلات الانتحار بين الفئة العمرية 10-24 سنة بشكل كبير خلال الفترة نفسها. ووصلت اضطرابات القلق بين المراهقين إلى ما وصفه كبير الجراحين الأمريكي (Surgeon General) بالوباء — إذ أفاد ما يصل إلى 95% من المراهقين الذين تتراوح أعمارهم بين 13 و17 سنة باستخدامهم لوسائل التواصل الاجتماعي، فيما يواجه من يقضون أكثر من ثلاث ساعات يومياً ضعف خطر أعراض الاكتئاب والقلق.
الارتباط لا يعني السببية، والنقاش حول دور وسائل التواصل الاجتماعي في أزمة الصحة النفسية للمراهقين معقد ومتشعب. لكن الأدلة المتراكمة — الدراسات الطولية، والأبحاث الداخلية للمنصات (كشفت وثائق مسربة من Meta أن الشركة كانت تعلم أن Instagram يضر بالصحة النفسية للمراهقات)، والأبحاث العصبية حول حلقات التغذية الراجعة القائمة على الدوبامين — أحدثت تحولاً في الإجماع السياسي. عبر الطيف السياسي، وفي كل ديمقراطية كبرى، خلص المشرعون إلى أن الوضع الراهن — منصات مصممة لتعظيم التفاعل دون أي التزام بحماية المستخدمين الصغار — لم يعد مقبولاً.
والنتيجة هي موجة عالمية من تشريعات حماية الأطفال عبر الإنترنت لم يسبق لها مثيل في تاريخ تنظيم الإنترنت. بحلول مطلع 2026، سنّت المملكة المتحدة والاتحاد الأوروبي وأستراليا وفرنسا والبرازيل و17 ولاية أمريكية على الأقل قوانين تفرض التزامات محددة على المنصات فيما يخص القاصرين. والتشريعات الفيدرالية الأمريكية تتقدم. وتأثيرات ذلك على تصميم المنصات ونماذج أعمالها والإنترنت بشكل عام عميقة وجوهرية.
المملكة المتحدة: Online Safety Act في مرحلة التطبيق الفعلي
يُعد قانون السلامة على الإنترنت (Online Safety Act) الصادر عام 2023 في المملكة المتحدة، والذي تطبقه هيئة Ofcom، أشمل قانون لحماية الأطفال عبر الإنترنت يُطبَّق فعلياً حالياً. بعد حصوله على الموافقة الملكية في أكتوبر 2023، بدأ التطبيق على مراحل — دخلت المرحلة الأولى حيز التنفيذ في 17 مارس 2025، وأصبحت قواعد ممارسة حماية الأطفال (Protection of Children Codes of Practice) سارية المفعول في 25 يوليو 2025.
واجب العناية: تتحمل المنصات التزاماً قانونياً بحماية الأطفال من المحتوى الضار — بما في ذلك المحتوى غير المحظور قانونياً للبالغين ولكنه مؤذٍ للأطفال. تشمل الفئات محتوى إيذاء النفس والانتحار، ومحتوى اضطرابات الأكل، والمواد الإباحية، والمحتوى الذي يروج للعنف، والتنمر الإلكتروني.
التحقق من العمر: يجب على المنصات التي يُحتمل أن يصل إليها الأطفال تطبيق إجراءات “متناسبة” للتحقق من العمر. أصدرت Ofcom إرشادات حول الطرق المقبولة: تقدير العمر (باستخدام تحليل الوجه)، والتحقق من العمر (عبر وثائق الهوية أو بطاقة الائتمان)، وإجراءات على مستوى الحساب (أدوات الرقابة الأبوية وإعدادات السلامة الافتراضية للحسابات المحددة كحسابات قاصرين).
السلامة الخوارزمية للأطفال: يجب على المنصات التأكد من أن خوارزميات التوصية الخاصة بها لا تروج لمحتوى ضار للأطفال. قد يتطلب ذلك الحفاظ على نماذج توصية منفصلة للمستخدمين المحددين كقاصرين — تقوم بتصفية فئات المحتوى الضار أو تقليل أولويتها.
عقوبات رادعة: يمكن لـ Ofcom فرض غرامات تصل إلى 18 مليون جنيه إسترليني أو 10% من الإيرادات العالمية المؤهلة، أيهما أعلى. وتنطبق المسؤولية الجنائية على كبار المسؤولين التنفيذيين الذين لا يمتثلون لطلبات المعلومات. ولدى Ofcom صلاحية مطالبة المنصات باستخدام “تقنية معتمدة” للكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) وإزالتها — وهو حكم أثار مخاوف بشأن التشفير من طرف إلى طرف.
إنفاذ فعلي: بحلول نهاية 2025، أطلقت Ofcom خمسة برامج إنفاذ وفتحت 21 تحقيقاً. في أغسطس 2025، فرضت غرامة قدرها 20,000 جنيه إسترليني على موقع 4chan لعدم الامتثال. وفي نوفمبر، فرضت غرامة 50,000 جنيه على موقع للتعري الرقمي بسبب عدم كفاية التحقق من العمر. وفي ديسمبر، فرضت غرامة مليون جنيه على مجموعة AVS Group لانعدام التحقق من العمر. وأعلن الرئيس التنفيذي لـ Ofcom أن المنصات الكبرى الشائعة بين الأطفال هي أولوية إنفاذية لعام 2026، مع توقع غرامات كبيرة.
أستراليا: حظر العمر يدخل حيز التنفيذ
اتخذت أستراليا النهج الأكثر صرامة على مستوى العالم: في نوفمبر 2024، أقرّ البرلمان قانون تعديل السلامة على الإنترنت (الحد الأدنى لسن وسائل التواصل الاجتماعي) (Online Safety Amendment – Social Media Minimum Age Act)، الذي حدد سناً أدنى قدره 16 عاماً لاستخدام وسائل التواصل الاجتماعي. دخلت القيود حيز التنفيذ في 10 ديسمبر 2025. يجب على المنصات اتخاذ “خطوات معقولة” لمنع المستخدمين دون 16 سنة من إنشاء حسابات أو الاحتفاظ بها. يقع الالتزام على المنصة وليس على الطفل أو الوالدين.
المنصات المشمولة: صُنِّفت Facebook وInstagram وSnapchat وThreads وTikTok وTwitch وX وYouTube وKick وReddit كمنصات خاضعة لقيود العمر. وتم استثناء تطبيقات المراسلة والألعاب عبر الإنترنت والشبكات المهنية وخدمات التعليم والصحة.
العقوبات: تواجه المنصات التي لا تتخذ خطوات معقولة غرامات تصل إلى 49.5 مليون دولار أسترالي. يتولى مفوض السلامة الإلكترونية (eSafety Commissioner) تحديد ما يشكل “خطوات معقولة” واتباع نهج متناسب قائم على المخاطر — مع التركيز أولاً على أكبر المنصات.
هذا أول حظر صريح لوسائل التواصل الاجتماعي على القاصرين تفرضه ديمقراطية كبرى. يواجه القانون تحديات تنفيذية جوهرية:
تقنية التحقق من العمر: لا يمكن لأي تقنية حالية التحقق من عمر المستخدم بشكل موثوق دون إثارة مخاوف تتعلق بالخصوصية. تشمل الخيارات: تقدير العمر عبر تحليل الوجه (انتُقد لمشاكل الدقة والتحيز وتداعيات المراقبة)، والتحقق عبر الهوية الحكومية (فعال لكنه ينشئ قاعدة بيانات تربط الهويات بالحسابات)، والإشارات على مستوى الجهاز (إعدادات الجهاز أو بيانات مشغل الهاتف المحمول).
التحايل: سيستخدم المراهقون المصممون شبكات VPN وتواريخ ميلاد مزيفة أو منصات بديلة. تعتمد فعالية القانون على إنفاذه ضد المنصات وليس ضد المستخدمين الأفراد.
مفارقة الخصوصية: التحقق من أن المستخدم يتجاوز 16 سنة يتطلب جمع معلومات شخصية — مما يخلق مخاطر جديدة على الخصوصية باسم حماية الأطفال.
رغم هذه التحديات، أثّر الحظر الأسترالي في النقاش العالمي. حذت فرنسا حذوها بحظرها للأقل من 15 سنة، وتُظهر استطلاعات الرأي دعماً أغلبياً في أستراليا ومستويات مماثلة في الولايات المتحدة وأوروبا لفرض قيود عمرية على وسائل التواصل الاجتماعي.
فرنسا: من الأهلية الرقمية إلى الحظر الصريح
كانت فرنسا من أكثر الفاعلين الأوروبيين حزماً في مجال حماية الأطفال عبر الإنترنت، وفي يناير 2026 صعّدت أكثر. أقرّت الجمعية الوطنية مشروع قانون يحظر استخدام وسائل التواصل الاجتماعي على الأطفال دون 15 سنة، بتصويت 130 صوتاً مقابل 21. بدعم من إدارة الرئيس Macron، كان مشروع القانون في انتظار موافقة مجلس الشيوخ في نهاية يناير 2026، مع هدف تطبيق في سبتمبر 2026.
نطاق التطبيق: يشمل القانون TikTok وInstagram وRoblox وميزات الدردشة في Fortnite وWhatsApp وTelegram والمواقع المخصصة للبالغين. وتُستثنى الموسوعات الإلكترونية والمنصات التعليمية. يتضمن التشريع أيضاً حظراً على الهواتف المحمولة في المدارس الثانوية.
نهج التحقق من العمر: يستخدم النموذج الفرنسي المقترح التحقق عبر “ازدواجية إخفاء الهوية” من خلال أطراف ثالثة — شركات متخصصة أو مشغلو هواتف محمولة أو تطبيق تابع للمفوضية الأوروبية يتضمن مسح الهوية والتعرف على الوجه. يحتفظ النظام فقط ببيانات العمر وليس بالتفاصيل الكاملة للهوية.
الإجراءات القائمة: كانت فرنسا قد سنّت بالفعل قوانين تشترط التحقق من العمر لمواقع المحتوى المخصص للبالغين (تطبقها هيئة ARCOM مع صلاحيات حجب المواقع) وحددت سن الأهلية الرقمية بـ 15 سنة لوسائل التواصل الاجتماعي — مع اشتراط موافقة الوالدين للأصغر سناً. يذهب الحظر الجديد أبعد من ذلك بوضع التزام الامتثال مباشرة على المنصات.
أصبح النهج الفرنسي نموذجاً مرجعياً لدول أعضاء أخرى في الاتحاد الأوروبي تدرس إجراءات مماثلة.
إعلان
الولايات المتحدة: KOSA وCOPPA وفسيفساء من قوانين الولايات
تتبع الولايات المتحدة مسارات تشريعية متعددة في آن واحد — على المستويين الفيدرالي وعلى مستوى الولايات.
قانون سلامة الأطفال على الإنترنت (KOSA) — لا يزال يتقدم
أقرّ مجلس الشيوخ KOSA في يوليو 2024 بدعم واسع من الحزبين (تصويت 91 مقابل 3)، لكنه لم يتقدم في مجلس النواب قبل انتهاء ولاية الكونغرس الـ 118. في مايو 2025، أُعيد تقديم مشروع القانون في الكونغرس الـ 119 بتعديلات. وفي ديسمبر 2025، أقرّت اللجنة الفرعية للتجارة في مجلس النواب KOSA (بتصويت 13 مقابل 10) مع 17 مشروع قانون آخر لحماية الأطفال عبر الإنترنت.
تشترط النسخة الحالية على المنصات:
- تطبيق سياسات معقولة لمنع أضرار محددة على القاصرين المعروفين، بما في ذلك الترويج للانتحار واضطرابات الأكل وتعاطي المخدرات والاستغلال الجنسي والتنمر
- تزويد القاصرين بخيارات لحماية معلوماتهم وتعطيل الميزات المسببة للإدمان (التشغيل التلقائي والإشعارات الفورية والتوصيات الخوارزمية) ورفض المحتوى المخصص
- تفعيل أقوى إعدادات الخصوصية افتراضياً للمستخدمين المحددين كقاصرين
- تزويد الوالدين بأدوات للإشراف على تجربة أطفالهم على المنصات وإدارتها
أسقطت نسخة مجلس النواب لعام 2025 بشكل لافت صيغة “واجب العناية” الأصلية وتنطبق على قائمة أضيق من الأضرار. ستتولى لجنة التجارة الفيدرالية (FTC) التطبيق، ويمكن للمدعين العامين في الولايات رفع دعاوى إنفاذية. حتى فبراير 2026، لم يُقرّ KOSA بعد من مجلس النواب بكامله ولم يُوقَّع ليصبح قانوناً.
COPPA: تحديث تنظيمي وتوسيع تشريعي
يعمل مساران متوازيان على تحديث حماية خصوصية الأطفال:
تعديلات قاعدة COPPA من لجنة التجارة الفيدرالية (مكتملة): نشرت FTC التعديلات النهائية على قاعدة قانون حماية خصوصية الأطفال على الإنترنت (COPPA) في 22 أبريل 2025، نافذة المفعول من 23 يونيو 2025، مع موعد نهائي للامتثال في 22 أبريل 2026. تشمل التغييرات الرئيسية توسيع تعريفات “المعلومات الشخصية” (لتشمل الآن المعرفات البيومترية والمعرفات الحكومية وأرقام الهواتف المحمولة)، وتعزيز متطلبات موافقة الوالدين، والتزامات أكثر صرامة لحفظ البيانات وأمنها.
تشريع COPPA 2.0 (قيد الانتظار): سيرفع قانون حماية خصوصية الأطفال والمراهقين على الإنترنت (Children and Teens’ Online Privacy Protection Act – S.836، الكونغرس الـ 119) عتبة العمر من 13 إلى 17 سنة للحماية المعززة، ويحظر الإعلانات الموجهة للقاصرين، ويشترط الموافقة الصريحة لجمع بيانات القاصرين، ويُنشئ حق “الممحاة الرقمية” الذي يتيح للقاصرين حذف بياناتهم.
على مستوى الولايات: فسيفساء تتشكل
جاءت أبرز الإجراءات الأمريكية من الولايات المنفردة. سنّت 17 ولاية على الأقل قوانين تتناول وصول القاصرين إلى وسائل التواصل الاجتماعي أو معاملتهم عليها، مع أكثر من 300 مشروع قانون معلق في 45 ولاية خلال 2025:
- Virginia (ساري المفعول من 1 يناير 2026): يُقيَّد المستخدمون دون 16 سنة بساعة واحدة يومياً لكل تطبيق وسائل تواصل اجتماعي بدون موافقة الوالدين
- Florida: تشترط على المنصات التحقق من العمر والحصول على موافقة الوالدين للأقل من 18 سنة وحماية بيانات القاصرين والحد من تعرضهم للمحتوى الضار
- California (SB 976): تنظم الخلاصات الخوارزمية “المسببة للإدمان” للقاصرين، مع اشتراط إجراءات تحديد العمر بحلول 1 يناير 2027
- Nebraska (ساري المفعول من 1 يوليو 2026): تشترط التحقق من العمر وموافقة الوالدين للأقل من 18 سنة؛ يمكن للقاصرين رفض ميزات مثل التمرير اللانهائي
غير أن النهج على مستوى الولايات يواجه عقبات قانونية. حُجبت قوانين Arkansas وOhio نهائياً من قبل المحاكم، بينما عُلِّقت إجراءات California وFlorida وGeorgia مؤقتاً بانتظار الفصل في الدعاوى — أساساً لأسباب تتعلق بالتعديل الأول من الدستور.
البرازيل: قانون الطفل والمراهق الرقمي (Digital ECA)
انضمت البرازيل إلى الموجة العالمية في سبتمبر 2025 بسنّها النظام الأساسي الرقمي للطفل والمراهق (“Digital ECA”) — أحد أشمل أطر حماية الطفولة على مستوى العالم. يدخل حيز التنفيذ في مارس 2026 ويُقرّر:
- التحقق من العمر الإلزامي: يُشترط تحقق “فعال وموثوق” — الإقرار الذاتي البسيط (إدخال تاريخ الميلاد) محظور صراحةً
- موافقة الوالدين وربط الحسابات: إلزامي لجميع المستخدمين دون 16 سنة
- التزامات المنصات: يجب على المواقع الإباحية وشبكات التواصل الاجتماعي حجب وصول القاصرين واكتشاف حسابات الأطفال
- التطبيق: يمكن أن تؤدي المخالفات إلى غرامات تصل إلى 50 مليون ريال برازيلي لكل حادثة، أو التعليق، أو حظر الأنشطة
- نطاق واسع: ينطبق على أي منتج أو خدمة تقنية موجهة للأطفال (دون 12 سنة) أو المراهقين (12-18 سنة) أو يُحتمل أن يصلوا إليها
الاتحاد الأوروبي: قانون الخدمات الرقمية + اللائحة العامة لحماية البيانات + إرشادات جديدة
يتعامل الاتحاد الأوروبي مع حماية الأطفال عبر الإنترنت من خلال أدوات متعددة متداخلة، وجلب عام 2025 إرشادات جديدة مهمة:
المادة 8 من اللائحة العامة لحماية البيانات (GDPR): يمكن للدول الأعضاء تحديد سن الموافقة الرقمية بين 13 و16 سنة (حددتها معظمها عند 16 سنة). يحتاج الأطفال دون هذا السن إلى موافقة الوالدين لمعالجة البيانات.
قانون الخدمات الرقمية (DSA): يجب على المنصات الإلكترونية الكبيرة جداً (VLOPs) تقييم المخاطر النظامية على رفاهية القاصرين والتخفيف منها. والإعلانات الموجهة القائمة على تصنيف القاصرين محظورة. ويجب على المنصات تقديم شروط خدمة واضحة ومناسبة للعمر للمستخدمين القاصرين.
إرشادات يوليو 2025 بشأن حماية القاصرين بموجب DSA: في 14 يوليو 2025، نشرت المفوضية الأوروبية إرشادات تفصيلية بموجب المادة 28 من DSA، قابلة للتطبيق على جميع المنصات الإلكترونية التي يمكن للقاصرين الوصول إليها (باستثناء المؤسسات الصغرى والصغيرة). رغم أنها غير ملزمة قانونياً، فإنها توفر إطاراً شاملاً يغطي:
- التحقق من العمر (الإقرار الذاتي يُعتبر غير موثوق؛ يُوصى بتقدير العمر والتحقق منه)
- الحماية من الاستمالة الجنسية والمحتوى الضار والسلوكيات الإدمانية والتنمر الإلكتروني
- حظر ممارسات التصميم المتلاعبة (مؤقتات العد التنازلي، صناديق الغنائم في الألعاب)
- إشراف على المحتوى مُدرَّب على تحديد التهديدات كالاستمالة الجنسية
- محفظة الهوية الرقمية الأوروبية المرتقبة (المتوقعة في 2026) كأداة للتحقق من العمر
استجابة المنصات
ردّت المنصات الكبرى على الموجة التنظيمية بجدية متزايدة:
Meta: في أكتوبر 2025، أعادت Instagram تصميم حسابات المراهقين بإطار محتوى PG-13. يُحظر الآن على المراهقين متابعة الحسابات التي تنشر بانتظام محتوى غير مناسب لأعمارهم، وتُصفى مصطلحات البحث مثل “كحول” أو “دماء”. يستخدم النظام معايير تصنيف الأفلام PG-13 لتحديد مناسبة المحتوى. يمكن للآباء اختيار وضع “محتوى محدود” أكثر صرامة. ومن المخطط فرض قيود على المحادثات بالذكاء الاصطناعي في 2026. بدأ النشر في الولايات المتحدة والمملكة المتحدة وأستراليا وكندا، مع نشر عالمي أوسع مخطط لعام 2026. غير أن البيانات الأولية تشير إلى قصور هذه الإجراءات: كشف تقرير رئيسي أن 60% من المراهقين الذين تتراوح أعمارهم بين 13 و15 سنة أفادوا بأنهم لا يزالون يصادفون محتوى غير آمن رغم حماية حسابات المراهقين.
TikTok: يحافظ على حد افتراضي يبلغ 60 دقيقة يومياً من وقت الشاشة لمن هم دون 18 سنة (يمكن تجاوزه برمز مرور)، ويعطل الإشعارات الفورية بعد الساعة 9 مساءً لمن هم دون 16 سنة، ويقيد الرسائل المباشرة لمن هم دون 16 سنة، ويفعّل الحسابات الخاصة افتراضياً للفئة العمرية 13-15 سنة. كما نشر TikTok تقنية لتقدير العمر.
YouTube: يوجد YouTube Kids كتطبيق منفصل ومنظم للأطفال الأصغر سناً. وتقيد منصة YouTube الرئيسية الميزات للمستخدمين المحددين كقاصرين (لا تشغيل تلقائي وقت النوم، تذكيرات إلزامية بالاستراحة).
Snapchat: قدم أدوات رقابة أبوية (Family Center) وميزات مقيدة لمن هم دون 16 سنة.
التوتر الجوهري: تقوم نماذج أعمال المنصات على التفاعل — إبقاء المستخدمين لأطول وقت ممكن وجعلهم يعودون بأكبر قدر من التكرار. وأكثر آليات التفاعل فعالية (التمرير اللانهائي، التشغيل التلقائي، الإشعارات الفورية، المقارنة الاجتماعية، توصيات المحتوى الخوارزمية) هي بالضبط الميزات التي يعتبرها المدافعون عن سلامة الأطفال ضارة بالعقول النامية. قد يتطلب الامتثال الحقيقي لقوانين حماية الأطفال أن تجعل المنصات منتجاتها أقل جاذبية للمستخدمين الصغار — وهو ما يتعارض مباشرة مع مصالحها المالية. الفجوة بين معدل رضا الآباء البالغ 95% عن ميزات السلامة لدى Meta ونسبة 60% من المراهقين الذين لا يزالون يرون محتوى ضاراً تجسد هذا التوتر بين النوايا المعلنة والنتائج القابلة للقياس.
التحدي التقني: التحقق من العمر على نطاق واسع
يعتمد كل قانون لحماية الأطفال في نهاية المطاف على قدرة واحدة: تحديد المستخدمين القاصرين بدقة. وهذا أصعب مما يبدو:
الإقرار الذاتي (المعيار الحالي): يُدخل المستخدمون تاريخ ميلاد عند التسجيل. يمكن التحايل عليه بسهولة بالغة — كل مراهق يعرف كيف يدخل تاريخاً يجعله يبدو بالغاً. حظرت البرازيل هذا النهج صراحةً في قانون Digital ECA، وتعتبره إرشادات DSA الأوروبية غير موثوق.
التحقق عبر الهوية الحكومية: فعال لكنه يثير مخاوف بشأن الخصوصية (تراكم بيانات الهوية الحكومية لدى المنصات)، وإمكانية الوصول (ليس لكل الأطفال بطاقة هوية)، والإنصاف (استبعاد من لا يملكون هوية).
تقدير العمر عبر تحليل الوجه: نماذج الذكاء الاصطناعي (AI) تقدر العمر من صورة سيلفي أو فيديو. تقدم شركات مثل Yoti تقدير عمر اختُبر بشكل مستقل من قبل المعهد الوطني للمعايير والتكنولوجيا (NIST)، محققاً معدل إيجابيات حقيقية بنسبة 99.3% للفئة العمرية 13-17 سنة دون تحيز ملحوظ عبر الأجناس أو ألوان البشرة. تحذف أنظمة تقدير العمر الحديثة صورة السيلفي فوراً بعد المعالجة ولا تخزن أي معرفات شخصية — مما يميزها عن تقنية التعرف على الوجه. نما إيراد Yoti بنسبة 62% في 2025، مما يعكس الطلب المتزايد. مع ذلك، لا يزال المدافعون عن الخصوصية قلقين من تطبيع مسح الوجه للوصول إلى الخدمات عبر الإنترنت.
الإشارات على مستوى الجهاز: استخدام معلومات الجهاز (سجلات مشغل الهاتف المحمول، إعدادات الجهاز، الحسابات المرتبطة) لتقدير العمر دون إجراء إضافي من المستخدم. تستخدم ميزات Communication Safety من Apple التعلم الآلي على الجهاز للكشف عن محتوى العري في الرسائل المرسلة من حسابات الأطفال أو إليها.
خدمات التحقق من العمر عبر طرف ثالث: خدمات مستقلة تتحقق من العمر وتوفر رمزاً أو شهادة للمنصة دون مشاركة البيانات الشخصية الأساسية. يتبع نموذج “ازدواجية إخفاء الهوية” الفرنسي ومحفظة الهوية الرقمية الأوروبية المرتقبة هذا النهج الحافظ للخصوصية، الذي يتطلب بناء بنية تحتية جديدة تماماً للهوية الرقمية.
لا يوجد حل مثالي. النظام المثالي سيتحقق من العمر بدقة ويحمي خصوصية المستخدم ويكون متاحاً لجميع المستخدمين ومقاوماً للتحايل. لا تحقق أي تقنية حالية هذه الأهداف الأربعة في آن واحد — لكن الإجماع التنظيمي تحول من “انتظار التقنية المثالية” إلى “نشر أفضل الأدوات المتاحة الآن”.
الأسئلة الشائعة
ما المقصود بـ Child Online Safety Laws؟
يتناول هذا المقال الجوانب الأساسية لهذا الموضوع، ويستعرض الاتجاهات الحالية والجهات الفاعلة الرئيسية والتداعيات العملية على المهنيين والمؤسسات في عام 2026.
لماذا يُعد هذا الموضوع مهمًا؟
يكتسب هذا الموضوع أهمية كبيرة لأنه يؤثر بشكل مباشر على كيفية تخطيط المؤسسات لاستراتيجيتها التقنية وتخصيص مواردها وتموضعها في مشهد سريع التطور.
ما أبرز النقاط المستخلصة من هذا المقال؟
يحلل المقال الآليات الرئيسية والأطر المرجعية والأمثلة الواقعية التي تشرح كيفية عمل هذا المجال، مستندًا إلى بيانات حديثة ودراسات حالة عملية.
المصادر والقراءات الإضافية
- UK Online Safety Act 2023 — النص الرسمي
- Ofcom — إنفاذ السلامة على الإنترنت والتحقيقات
- UK Online Safety Act: قواعد حماية الأطفال (يوليو 2025)
- أستراليا — قانون الحد الأدنى لسن وسائل التواصل الاجتماعي (مفوض eSafety)
- الكونغرس الأمريكي — Kids Online Safety Act، S.1748 (الكونغرس الـ 119)
- FTC — تعديلات قاعدة COPPA (2025)
- فرنسا — حظر وسائل التواصل الاجتماعي لمن دون 15 سنة (يناير 2026)
- البرازيل — النظام الأساسي الرقمي للطفل والمراهق (Digital ECA)
- المفوضية الأوروبية — إرشادات DSA بشأن حماية القاصرين (يوليو 2025)
- كبير الجراحين الأمريكي — استشارة حول وسائل التواصل الاجتماعي والصحة النفسية للشباب
- Meta — حسابات المراهقين على Instagram بإطار PG-13 (أكتوبر 2025)
- NCSL — وسائل التواصل الاجتماعي والأطفال، تشريعات الولايات 2025
- Yoti — ورقة بيضاء حول تقدير العمر بتحليل الوجه (يوليو 2025)


















