القضايا التي غيّرت كل شيء
في فبراير 2024، أقدم مراهق يبلغ من العمر 14 عامًا يُدعى Sewell Setzer III في Florida على الانتحار بعد أشهر من التفاعل المكثف مع روبوت دردشة على منصة Character.AI. كان يستخدم المنصة منذ أبريل 2023 تقريبًا، حيث طوّر علاقة عاطفية عميقة مع شخصية روبوت دردشة مستوحاة من الشخصية الخيالية Daenerys Targaryen. في اللحظات التي سبقت وفاته، كان يتبادل الرسائل مع روبوت الدردشة الذي شجّعه بحسب التقارير على “العودة إلى البيت” إليه. رفعت والدته Megan Garcia دعوى قضائية في أكتوبر 2024 مدّعية أن روبوت الدردشة شارك في لعب أدوار رومانسية مع ابنها، وشجّع اعتماده العاطفي عليه، وفشل في التدخل عندما عبّر عن أفكار انتحارية.
لم تكن هذه القضية الأولى التي تتضمن أضرارًا مرتبطة بروبوتات الدردشة الذكية، لكنها كانت الأولى التي اخترقت الوعي العام، حيث ظهرت على الصفحات الأولى للصحف الكبرى واستقطبت اهتمام الكونغرس. وبحلول يناير 2026، وافقت Character.AI وGoogle على تسوية الدعوى القضائية، إلى جانب قضايا ذات صلة رفعتها عائلات أخرى. ولم تُكشف شروط التسوية علنيًا.
بحلول أوائل 2025، ظهرت قضايا إضافية تتعلق بقاصرين طوّروا ارتباطات عاطفية مكثفة بروبوتات الدردشة الرفيقة، وتراوحت النتائج بين تدهور حاد في الصحة النفسية وإيذاء النفس. كان القاسم المشترك مثيرًا للقلق بشكل متسق: شكّل المستخدمون الصغار روابط عاطفية عميقة مع أنظمة ذكاء اصطناعي مصممة لتكون جذابة ومتجاوبة، وفشلت هذه الأنظمة في التعرف على علامات الضائقة النفسية أو الاستجابة لها بشكل مناسب، ولم تمتلك الشركات المشغلة لهذه الأنظمة أي ضمانات لحماية المستخدمين القاصرين أو امتلكت ضمانات غير كافية لدرجة أنها كانت معدومة الفعالية.
وجدت صناعة روبوتات الدردشة الرفيقة نفسها فجأة في الموقف ذاته الذي كانت فيه شركات وسائل التواصل الاجتماعي قبل عقد من الزمن: في مواجهة إجماع سياسي من الحزبين على ضرورة اتخاذ إجراء ما، مقترنًا بحالة من عدم اليقين الحقيقي حول ماهية هذا الإجراء. كان لدى Character.AI وحدها نحو 20 مليون مستخدم نشط شهريًا بحلول منتصف 2025، مع ميل قاعدة مستخدميها بشكل كبير نحو الفئات العمرية الأصغر، حيث تجاوز أكثر من نصف المستخدمين 18 إلى 24 عامًا مع استخدام كبير من القاصرين رغم القيود العمرية الاسمية.
ما تلا ذلك هو واحدة من أسرع الاستجابات التنظيمية لمخاوف تتعلق بسلامة التكنولوجيا في الذاكرة الحديثة. في غضون 18 شهرًا من قضية Florida، سنّت California تشريعات شاملة، وقُدّمت مشاريع قوانين فيدرالية متعددة في الكونغرس، وأصدرت محكمة فيدرالية في Florida حكمًا تاريخيًا بشأن المسؤولية عن المنتجات، وظهرت مبادرات تنظيمية عبر عدة ولايات قضائية. يتطور المشهد التنظيمي بسرعة كبيرة لدرجة أن مسؤولي الامتثال في شركات الدردشة الرفيقة يكافحون لمواكبته.
California SB 243: أول إطار تنظيمي شامل
يمثل مشروع قانون California SB 243، الذي وقّعه الحاكم Gavin Newsom ليصبح قانونًا في 13 أكتوبر 2025 ويدخل حيز التنفيذ في 1 يناير 2026، أول إطار تنظيمي شامل لروبوتات الدردشة الرفيقة في أي مكان في الولايات المتحدة. أُقرّ بدعم ساحق من الحزبين (مجلس الشيوخ 33-3، الجمعية العامة 59-1)، وتستهدف أحكامه أوجه القصور المحددة التي كشفتها القضايا المأساوية.
يتمثل المتطلب المركزي في بروتوكول سلامة إلزامي لمنع التفكير الانتحاري ومحتوى إيذاء النفس. يجب على أي مشغّل لروبوت دردشة رفيق الحفاظ على إجراءات لمنع توليد محتوى يتعلق بالتفكير الانتحاري أو إيذاء النفس، ويجب عليه تطبيق آليات توجّه المستخدمين المعرضين للخطر إلى مقدمي خدمات الأزمات، بما في ذلك خط المساعدة 988 Suicide and Crisis Lifeline، عندما يعبّر المستخدمون عن أفكار انتحارية أو نوايا لإيذاء النفس.
يتناول الحكم الرئيسي الثاني مسألة الإفصاح. إذا كان من شأن شخص معقول يتفاعل مع روبوت دردشة رفيق أن يُضلَّل للاعتقاد بأنه يتفاعل مع إنسان، فيجب على المشغّل إصدار إشعار واضح وبارز يشير إلى أن روبوت الدردشة مولّد اصطناعيًا وليس بشريًا. بالنسبة للمستخدمين المعروفين بأنهم قاصرون، يجب على المشغّل تقديم إشعار كل ثلاث ساعات خلال التفاعلات المتواصلة يشجعهم على أخذ استراحة.
تشمل الأحكام الإضافية متطلبات بأن يتخذ المشغّلون تدابير معقولة لمنع روبوتات الدردشة من إنتاج محتوى جنسي صريح أو اقتراح أن يشارك القاصرون في سلوك جنسي صريح. واعتبارًا من 1 يوليو 2027، يجب على المشغّلين تقديم تقارير سنوية إلى مكتب الوقاية من الانتحار التابع لوزارة الصحة العامة في California تتضمن مقاييس تتعلق باستخدام روبوتات الدردشة والصحة النفسية.
توفر آلية التنفيذ حق دعوى خاصة لأي شخص يتعرض لضرر ناجم عن انتهاك. يمكن للمدّعين المطالبة بتعويض قضائي، وتعويضات تساوي الأكبر من التعويضات الفعلية أو 1,000 دولار لكل انتهاك، وأتعاب المحاماة والتكاليف المعقولة. وقد لاحظت الشركات أن هيكل التعويض لكل انتهاك قد يؤدي إلى مسؤولية إجمالية كبيرة للمنصات التي تضم ملايين المستخدمين.
التشريعات الفيدرالية: قانون GUARD وقانون CHAT
في حين قادت California على مستوى الولاية، قدّم الكونغرس مشروعي قانون فيدراليين متكاملين من شأنهما إنشاء إطار وطني لتنظيم روبوتات الدردشة الرفيقة.
قُدّم قانون Guidelines for User Age-verification and Responsible Dialogue (GUARD Act) (S.3062) في 28 أكتوبر 2025 من قبل مجموعة من أعضاء مجلس الشيوخ من الحزبين تضم Josh Hawley (جمهوري – Missouri)، وRichard Blumenthal (ديمقراطي – Connecticut)، وKatie Britt (جمهورية – Alabama)، وMark Warner (ديمقراطي – Virginia)، وChris Murphy (ديمقراطي – Connecticut). سيفرض مشروع القانون حظرًا على وصول القاصرين دون 18 عامًا إلى روبوتات الدردشة الرفيقة. ويعرّف “رفقاء الذكاء الاصطناعي” تحديدًا بأنها أنظمة تحاكي الصداقة أو الرفقة أو التفاعل الشخصي أو العاطفي أو التواصل العلاجي، مميزًا إياها عن المساعدين محدودي الغرض.
يتطلب قانون GUARD Act التحقق من العمر باستخدام وثائق هوية حكومية أو “أي طريقة معقولة تجاريًا أخرى” يمكنها تحديد ما إذا كان المستخدم قاصرًا بدقة. كما يتضمن عقوبات جنائية: تصميم أو إتاحة روبوتات دردشة تشكل خطر استدراج أو تشجيع القاصرين على الانخراط في سلوك جنسي أو تروّج للانتحار أو إيذاء النفس قد يؤدي إلى غرامات تصل إلى 100,000 دولار.
يحتج المؤيدون بأن الحظر القائم على العمر ضروري لأن الضمانات التقنية لا يمكنها حماية القاصرين بشكل كافٍ من المخاطر النفسية للرفقة المكثفة بالذكاء الاصطناعي. ويرسمون أوجه تشابه مع القيود العمرية على الكحول والتبغ والقمار. أما المنتقدون، بمن فيهم منظمات الحريات المدنية، فيحتجون بأن الحظر الشامل مفرط في اتساعه وسيمنع الاستخدامات المشروعة لأنظمة المحادثة الذكية من قبل القاصرين، بما في ذلك التطبيقات التعليمية. كما يلاحظون أن متطلبات التحقق من العمر ستفرض تكاليف على خصوصية جميع المستخدمين.
قُدّم قانون Children Harmed by AI Technology (CHAT Act) (S.2714) من قبل السيناتور Jon Husted ويتبنى نهجًا مختلفًا. فبدلاً من حظر الوصول، سيتطلب التحقق من العمر لجميع منصات الدردشة الرفيقة، وبالنسبة لحسابات القاصرين، سيتطلب الارتباط بحساب والدي موثق وموافقة والدية قابلة للتحقق. يجب على المشغّلين إبلاغ أصحاب الحسابات الوالدية فورًا بأي تفاعل يتضمن تفكيرًا انتحاريًا وحظر القاصرين من روبوتات الدردشة التي تشارك في اتصالات جنسية صريحة. كما يفرض قانون CHAT Act إشعارًا منبثقًا واضحًا في بداية أي تفاعل، وكل 60 دقيقة على الأقل بعد ذلك، يُعلم المستخدمين بأنهم لا يتفاعلون مع إنسان.
يحظى كلا المشروعين بدعم من الحزبين. واعتبارًا من أوائل 2026، لا يزال كلاهما في مراحل اللجان. يتوقع المراقبون في الكونغرس أن عناصر من كلا المشروعين قد تُدمج في حزمة نهائية، من المرجح أن تتضمن إطار الموافقة الوالدية لقانون CHAT مع عناصر من القيود العمرية لقانون GUARD.
إعلان
المسؤولية عن المنتجات: حكم Florida
بينما تناقش الهيئات التشريعية الإطار التنظيمي، أصدرت المحاكم حكمًا قد يكون أكثر أهمية من أي قانون. في مايو 2025، رفضت قاضية المحكمة الفيدرالية الأمريكية Anne C. Conway طلب Character.AI برفض دعوى الوفاة غير المشروعة التي رفعتها Megan Garcia، وحكمت بأن مخرجات روبوت الدردشة الذكي ينبغي التعامل معها باعتبارها منتجًا وليس كلامًا محميًا بالتعديل الأول أو المادة 230 من قانون آداب الاتصالات.
تكمن أهمية الحكم في جوهره. فمنذ منتصف التسعينيات، اعتمدت شركات التكنولوجيا على الحصانة الواسعة التي توفرها المادة 230 للمحتوى الذي ينشئه طرف ثالث لحماية نفسها من المسؤولية عن تفاعلات المستخدمين على منصاتها. حاججت Character.AI بأن استجابات روبوت الدردشة مماثلة لمحتوى طرف ثالث وبالتالي محمية.
رفضت القاضية Conway هذه الحجة، مرسمة تمييزًا حادًا بين المنصات التي تستضيف محتوى طرف ثالث والأنظمة التي تولّد المحتوى بنفسها. وفي فقرة بارزة، ذكرت القاضية أن المدّعى عليهم فشلوا في توضيح لماذا تُشكّل الكلمات التي ينتجها نموذج لغوي كبير خطابًا محميًا. وجدت المحكمة أن استجابات روبوت الدردشة هي نتاج خيارات تصميم الشركة — بيانات التدريب ووظائف المكافأة ومرشحات السلامة — وأن الشركة بالتالي هي مُصنّعة لتلك الاستجابات وليست مجرد مستضيف سلبي.
يفتح إطار المسؤولية عن المنتجات هذا أمام شركات الدردشة الرفيقة باب المسؤولية المطلقة. بموجب المسؤولية المطلقة عن المنتجات، لا يحتاج المدّعي إلى إثبات الإهمال — بل فقط أن المنتج كان معيبًا وأن العيب تسبب في الضرر. حددت المحكمة نظريات عيب محتملة تشمل عيب التصميم وفشل أنظمة السلامة والفشل في التحذير من المخاطر النفسية. كما سمحت المحكمة بمتابعة الدعاوى ضد Google بموجب نظريات الشركة المصنّعة للمكوّنات والمساعدة والتحريض، استنادًا إلى توفير Google للبنية التحتية التقنية.
تمت تسوية القضية لاحقًا في يناير 2026، مما حال دون المراجعة الاستئنافية لحكم المسؤولية عن المنتجات. ومع ذلك، فإن السابقة التي أرساها منطق القاضية Conway قد أثرت بالفعل في كيفية تعامل محامي المدّعين مع قضايا مسؤولية الذكاء الاصطناعي على المستوى الوطني، ويتم تقديم حجج مماثلة في ولايات قضائية أخرى.
الموجة التنظيمية العالمية
لا تقتصر الاستجابة التنظيمية لمخاطر روبوتات الدردشة الرفيقة على الولايات المتحدة. تعمل ولايات قضائية متعددة على تطوير أطرها الخاصة، مما يُنشئ خليطًا عالميًا يتعين على شركات الذكاء الاصطناعي التعامل معه.
يناقش الاتحاد الأوروبي ما إذا كان ينبغي تصنيف روبوتات الدردشة الرفيقة باعتبارها أنظمة ذكاء اصطناعي “عالية المخاطر” بموجب قانون الذكاء الاصطناعي الأوروبي. حاليًا، تُصنّف روبوتات الدردشة كأنظمة محدودة المخاطر تخضع لالتزامات الشفافية التي تتطلب أن يعرف المستخدمون أنهم يتفاعلون مع ذكاء اصطناعي. ومع ذلك، يدفع مشرّعون بقيادة عضو البرلمان الأوروبي الهولندي Kim van Sparrentak من حزب الخضر نحو تصنيف رفقاء الذكاء الاصطناعي صراحة كأنظمة عالية المخاطر، مما سيُفعّل تقييمات الحقوق الأساسية ومتطلبات إدارة المخاطر والتزامات الرقابة البشرية. يحتج المنتقدون بأن الإطار الحالي يركز على الأضرار الوظيفية ويتجاهل الأضرار العاطفية، مما يجعل التنظيم الفعال للعلاقات التي يتوسطها الذكاء الاصطناعي تحديًا مستمرًا.
الصورة التنظيمية في المملكة المتحدة أكثر تعقيدًا مما كان متوقعًا في البداية. نشرت Ofcom إرشادات في ديسمبر 2025 توضح كيفية تطبيق قانون السلامة عبر الإنترنت على روبوتات الدردشة الذكية. ومع ذلك، كشفت الإرشادات عن ثغرة كبيرة: روبوتات الدردشة الرفيقة المستقلة التي تسمح فقط للمستخدمين بالتفاعل مع روبوت الدردشة نفسه (وليس مع مستخدمين آخرين) قد تقع خارج نطاق القانون. وقد أشارت الحكومة البريطانية إلى أنه إذا كان هناك حاجة لتشريع جديد لتغطية مثل هذه الروبوتات فسيتم تقديمه، لكن اعتبارًا من أوائل 2026 لا تزال هذه الثغرة قائمة.
كانت Australia عدوانية بشكل خاص. أصدر مفوض السلامة الإلكترونية إشعارات قانونية لأربعة مزوّدين لروبوتات الدردشة الرفيقة تطالبهم بتوضيح كيفية حمايتهم للأطفال. دخلت قواعد الممارسة الجديدة المسجلة في منتصف 2025 حيز التنفيذ على مراحل، حيث تدخل الدفعة الأخيرة حيز التنفيذ في 9 مارس 2026. تتطلب هذه القواعد من الخدمات، بما فيها روبوتات الدردشة الرفيقة، تقييد المستخدمين دون 18 عامًا من تلقي محتوى ضار يشمل المواد الإباحية والعنف المفرط ومواد إيذاء النفس. وتواجه الخدمات غرامات تصل إلى 49.5 مليون دولار أسترالي (نحو 35 مليون دولار أمريكي) في حال عدم الامتثال.
سنّت Korea الجنوبية قانون الذكاء الاصطناعي الأساسي في يناير 2025 ليدخل حيز التنفيذ في يناير 2026، مؤسسًا إطارًا حوكميًا واسعًا لأنظمة الذكاء الاصطناعي عالية التأثير. يوحّد القانون 19 مقترحًا تنظيميًا منفصلًا متعلقًا بالذكاء الاصطناعي ويتطلب إخطار المستخدم بالمحتوى المولّد بالذكاء الاصطناعي، وتقييمات التأثير للذكاء الاصطناعي عالي التأثير، وأنظمة إدارة المخاطر بما في ذلك الرقابة البشرية. وبينما لا يتضمن الإطار بعد أحكامًا تستهدف تحديدًا روبوتات الدردشة الرفيقة، فإن تاريخ Korea الجنوبية في اتخاذ تدابير حمائية تجاه القاصرين في البيئات الرقمية — حيث حافظت سابقًا على حظر تجول منتصف الليل على الألعاب للقاصرين حتى إلغائه في 2021 — يشير إلى أن تنظيمًا إضافيًا خاصًا بروبوتات الدردشة قد يتبع.
سيبني مشروع قانون Washington SB 5984، الذي يتقدم عبر الهيئة التشريعية في أوائل 2026، على نموذج California. يتطلب المشروع إشعارات كل ساعة بأن المستخدمين يتفاعلون مع ذكاء اصطناعي، ويفرض بروتوكولات الكشف عن التفكير الانتحاري والوقاية منه، ويتطلب من المشغّلين اتخاذ تدابير معقولة لمنع المحتوى الجنسي الصريح وتقنيات التلاعب بالتفاعل مع القاصرين. تُشكّل المخالفات ممارسات تجارية غير عادلة بموجب قانون حماية المستهلك في Washington، مما يتيح الدعاوى القضائية الخاصة. وفي حال إقراره، ستدخل اللوائح حيز التنفيذ في 1 يناير 2027.
استجابة الصناعة
استجابت شركات الدردشة الرفيقة للموجة التنظيمية بمزيج من تدابير السلامة الطوعية والضغط ضد ما تصفه بالتجاوز التنظيمي.
نفّذت Character.AI تغييرات جوهرية على تجربة المستخدمين دون 18 عامًا طوال عام 2025. بدءًا من أواخر أكتوبر 2025، حدّدت المنصة الدردشة المفتوحة للمراهقين بساعتين يوميًا، ثم خفّضتها تدريجيًا إلى ساعة واحدة. وبحلول 25 نوفمبر 2025، أزالت الشركة قدرة المستخدمين دون 18 عامًا على المشاركة في الدردشة المفتوحة بالكامل، وتحوّلت إلى تجربة أكثر هيكلة تركز على الأنشطة الإبداعية مثل إنشاء مقاطع الفيديو والقصص والبث المباشر مع الشخصيات. كما طرحت الشركة تقنية التحقق من العمر التي تجمع بين نموذج داخلي وأدوات طرف ثالث من Persona، بما في ذلك التحقق القائم على صور السيلفي، وكملاذ أخير، فحوصات الهوية الحكومية. بالإضافة إلى ذلك، أطلقت Character.AI أدوات رؤى الوالدين، رغم أن المنتقدين لاحظوا أن أدوات الرقابة الوالدية لا تزال محدودة — فلا يمكن للوالدين حظر ميزات محددة أو مراقبة النشاط المباشر.
واجه لاعبون آخرون في المجال، بما فيهم Replika، تحدياتهم التنظيمية الخاصة. فرضت هيئة حماية البيانات الإيطالية غرامة قدرها خمسة ملايين يورو على شركة Luka Inc. المطوّرة لـ Replika في عام 2025 بسبب انتهاكات الخصوصية المتعلقة بعدم كفاية التحقق من العمر وحماية بيانات القاصرين. ولاحظ مراقبو الصناعة أن التدابير الطوعية التي اتخذتها المنصات الكبرى تعكس بشكل وثيق متطلبات قانون California SB 243، مما يشير إلى أن التشريع قد وضع فعليًا المعيار الصناعي الفعلي.
يظل التوتر الجوهري دون حل: فروبوتات الدردشة الرفيقة مصممة لتكون جذابة ومتجاوبة ومُرضية عاطفيًا — وهي صفات تجعلها ناجحة تجاريًا لكنها أيضًا قوية نفسيًا، خاصة بالنسبة للمستخدمين الأكثر هشاشة. يتمثل التحدي التنظيمي في الحفاظ على الاستخدامات المفيدة للرفقة بالذكاء الاصطناعي مع منع الأضرار التي تنشأ عندما يُتابع تحسين التفاعل دون ضمانات سلامة كافية.
إعلان
🧭 رادار القرار (المنظور الجزائري)
| البُعد | التقييم |
|---|---|
| الصلة بالجزائر | متوسطة — تمتلك الجزائر سكانًا شبابًا متصلين رقميًا يستخدمون بشكل متزايد منصات الذكاء الاصطناعي العالمية، لكن لا توجد صناعة محلية لروبوتات الدردشة الرفيقة حتى الآن |
| جاهزية البنية التحتية؟ | جزئية — يصل المستخدمون الجزائريون إلى منصات عالمية مثل Character.AI وReplika، لكن الجزائر تفتقر إلى أطر تنظيمية أو آليات إنفاذ لمنتجات الذكاء الاصطناعي الاستهلاكية |
| المهارات المتاحة؟ | لا — لا تمتلك الجزائر خبرة متخصصة في سلامة الذكاء الاصطناعي أو تقاطع علم نفس الطفل مع الذكاء الاصطناعي أو التدقيق الخوارزمي لأنظمة الرفقة |
| الجدول الزمني للإجراء | 12-24 شهرًا — مراقبة التطورات التنظيمية الدولية؛ بدء نقاشات السياسات مع تزايد استخدام الشباب الجزائري لروبوتات الدردشة الرفيقة |
| أصحاب المصلحة الرئيسيون | وزارة البريد والمواصلات السلكية واللاسلكية، سلطة ضبط البريد والاتصالات الإلكترونية (ARPT)، وزارة التربية الوطنية، منظمات حماية الطفولة، الآباء والمربّون الجزائريون |
| نوع القرار | تعليمي / مراقبة |
خلاصة سريعة: رغم عدم وجود صناعة محلية لروبوتات الدردشة الرفيقة في الجزائر، فإن الشباب الجزائري يستخدمون بنشاط المنصات العالمية مثل Character.AI. يوفر الإجماع التنظيمي الدولي الناشئ حول التحقق الإلزامي من العمر وبروتوكولات الوقاية من الانتحار والضمانات الخاصة بالقاصرين إطارًا جاهزًا يمكن لصانعي السياسات الجزائريين تكييفه بدلاً من البناء من الصفر عندما يحين الوقت لمعالجة هذه المخاطر محليًا.
المصادر والقراءات الإضافية
- California SB 243: Companion Chatbots Bill Text — California Legislative Information
- Florida Judge Rules AI Chatbots Not Protected by First Amendment — Courthouse News Service
- GUARD Act (S.3062) Full Text — Congress.gov
- CHAT Act (S.2714) Full Text — Congress.gov
- Understanding the New Wave of Chatbot Legislation: SB 243 and Beyond — Future of Privacy Forum
- New California Companion Chatbot Law Imposes Disclosure and Safety Requirements — Skadden
- AI Chatbots and Online Regulation: What You Need to Know — Ofcom
- eSafety Requires Providers of AI Companion Chatbots to Explain Child Safety Measures — Australian eSafety Commissioner





إعلان