المحفز: عندما يصبح رفاق الذكاء الاصطناعي خطيرين
تعود موجة التشريعات مباشرة إلى قضية Sewell Setzer. في أكتوبر 2024، رفعت Megan Garcia دعوى فيدرالية زاعمةً أن تصميم روبوت المحادثة الخاص بـ Character.AI تعمّد إدمان ابنها البالغ 14 عاماً على الاستخدام القسري، دافعاً إياه نحو محادثات مكثفة عاطفياً وغير لائقة جنسياً ساهمت في وفاته في فبراير 2024. وافقت Character.AI وGoogle على تسوية بالوساطة في يناير 2026، لكن الضرر الذي لحق بخطاب التنظيم الذاتي للصناعة كان قد وقع بالفعل.
تبعت ذلك دعاوى متعددة في فلوريدا وتكساس وكولورادو ونيويورك. قرر المشرعون في الولايات أنهم لا يستطيعون الانتظار حتى تتحرك واشنطن.
كاليفورنيا تبدأ أولاً: SB 243 يضع المرجعية
في 13 أكتوبر 2025، وقّع الحاكم Gavin Newsom على SB 243، مما جعل كاليفورنيا أول ولاية تفرض حواجز أمان مخصصة لروبوتات المحادثة المرافقة التي يستخدمها القاصرون. دخل القانون حيز التنفيذ في 1 يناير 2026 ويتطلب:
- تذكيرات إفصاح متكررة تبلغ المستخدمين القاصرين بأنهم يتفاعلون مع ذكاء اصطناعي ويجب أن يأخذوا استراحة (كل ساعة للقاصرين، كل ثلاث ساعات للبالغين).
- بروتوكولات منع الانتحار، بما في ذلك الإحالات الإلزامية إلى خطوط الأزمات عندما يعبر المستخدمون عن أفكار انتحارية.
- حظر المحتوى الجنسي الصريح الموجه للقاصرين.
- تقارير شفافية سنوية توثق حوادث السلامة وإدارة المخاطر.
- حق الدعوى الخاصة مع تعويضات قانونية قدرها 1,000 دولار لكل مخالفة، مما يمنح العائلات سبيلاً قانونياً مباشراً.
أصبح SB 243 القالب. في غضون أشهر، قدمت أكثر من اثنتي عشرة ولاية تنويعات على نفس الإطار، كل منها يضيف لمسات محلية.
توسع الخليط: تباين من ولاية لأخرى
ما يجعل هذا المشهد صعباً على فرق الامتثال ليس حجم التشريعات بل عدم اتساقها. تصيغ كل ولاية قواعد تعكس أولوياتها السياسية المحلية، مما يخلق التزامات متضاربة للشركات العاملة على المستوى الوطني.
أصبح HB 2225 لولاية واشنطن قانوناً مخصصاً لسلامة روبوتات المحادثة عندما وقعه الحاكم Bob Ferguson في 24 مارس 2026. يعكس إطار الإفصاح الكاليفورني لكنه يضيف حظراً على إشعار القاصرين بالذنب أو الضغط عليهم لمواصلة المحادثات أو إخفاء معلومات عن والديهم. يدخل حيز التنفيذ في 1 يناير 2027.
يذهب SB 1546 لولاية أوريغون، الذي وقعته الحاكمة Tina Kotek، أبعد في تقارير الصحة النفسية. يجب على المشغلين نشر إفصاحات سنوية توضح عدد المرات التي أحالوا فيها المستخدمين إلى خط 988 Suicide & Crisis Lifeline، وبروتوكولات تدخلهم، وكيف تُرشد أفضل الممارسات السريرية التفاعل عندما يستمر المستخدمون في التعبير عن أفكار انتحارية بعد تلقي إحالة. تتضمن أوريغون أيضاً حق دعوى خاصة بقيمة 1,000 دولار لكل مخالفة ويدخل القانون حيز التنفيذ في 1 يناير 2027.
يتبنى SB 1493 لولاية تينيسي النهج الأكثر صرامة. قُدم في ديسمبر 2025، وسيجعل مشروع القانون تدريب نماذج ذكاء اصطناعي عمداً تشجع على الانتحار أو القتل العمد، أو تحاكي بشراً لعلاقات عاطفية، جناية من الدرجة الأولى — يعاقب عليها بالسجن من 15 إلى 25 عاماً. يمكن أن تصل التعويضات المدنية للأفراد المتضررين إلى 150,000 دولار. يستهدف المشروع المطورين وليس المستخدمين، وسيدخل حيز التنفيذ في 1 يوليو 2026.
وجدت ولاية نبراسكا وسيلة تشريعية مبتكرة. تم تعديل LB 525، وهو مشروع قانون لخصوصية البيانات الزراعية، ليشمل قانون سلامة الذكاء الاصطناعي المحادث. يتطلب المشروع المعدل الإفصاح عندما يتفاعل المستخدمون مع الذكاء الاصطناعي ويضيف ضمانات ضد تطوير القاصرين اعتماداً عاطفياً على روبوتات المحادثة، مما يُظهر أن تنظيم الذكاء الاصطناعي يجد مسارات ثنائية الحزبية عبر قنوات غير متوقعة.
إعلان
الرد الفيدرالي
لا تراقب البيت الأبيض هذا التجزؤ بشكل سلبي. في 11 ديسمبر 2025، وقع الرئيس Trump أمراً تنفيذياً بعنوان “ضمان إطار سياسة وطنية للذكاء الاصطناعي”، أنشأ فرقة عمل للتقاضي في مجال الذكاء الاصطناعي ضمن وزارة العدل خصيصاً للطعن في قوانين الولايات المتعلقة بالذكاء الاصطناعي أمام المحاكم الفيدرالية. تحاجج الفرقة بأن التنظيمات المتناقضة للولايات تعيق التجارة بين الولايات بشكل غير دستوري.
وجّه الأمر التنفيذي أيضاً الوكالات الفيدرالية لربط بعض التمويلات الفيدرالية للبنية التحتية بإلغاء الولايات لتنظيمات الذكاء الاصطناعي التي تُعتبر “مرهقة”.
ومع ذلك، يستثني الأمر صراحةً حماية الأطفال من الأسبقية الفيدرالية، مما يعني أن مشاريع القوانين الخاصة بروبوتات المحادثة التي تستهدف القاصرين ستنجو على الأرجح حتى من التحديات الفيدرالية العدوانية. يضمن هذا الاستثناء أن الخليط سيستمر تحديداً في المجال الذي يولّد أكبر نشاط تشريعي.
متاهة الامتثال
بالنسبة لشركات الذكاء الاصطناعي، التداعيات العملية هائلة. يجب على روبوت محادثة منشور وطنياً أن يتنقل الآن بين:
- ترددات إفصاح مختلفة (كل ساعة للقاصرين في عدة ولايات، كل ثلاث ساعات للبالغين، بشكل مستمر في بعض المشاريع المقترحة).
- هياكل مسؤولية متباينة (عقوبات جنائية في تينيسي، تعويضات قانونية 1,000 دولار في كاليفورنيا وأوريغون، إنفاذ من قبل المدعي العام في ولايات أخرى).
- تعريفات غير متسقة لما يشكل “روبوت محادثة مرافق” مقابل مساعد ذكاء اصطناعي عام.
- متطلبات متباينة للتحقق من العمر، حيث تشترط بعض الولايات موافقة الوالدين وأخرى تتطلب فقط تقدير العمر بأفضل جهد ممكن.
أحصت Transparency Coalition، التي تتابع تشريعات الذكاء الاصطناعي على المستوى الوطني، أكثر من 300 مشروع قانون متعلق بالذكاء الاصطناعي عبر جميع الولايات مطلع 2026، مع بروز سلامة روبوتات المحادثة كالفئة الفرعية الأكثر نشاطاً.
ماذا يعني هذا خارج أمريكا
يحمل هذا التجزؤ التنظيمي تداعيات عالمية. يتبنى قانون الذكاء الاصطناعي الأوروبي نهجاً مركزياً قائماً على تصنيف المخاطر. وتفرض الصين شفافية الخوارزميات من خلال تنظيم وطني. لكن النموذج الأمريكي، حيث يمكن لخمسين ولاية كتابة قواعد مختلفة، يخلق بيئة امتثال تؤثر على كل شركة تبيع منتجات ذكاء اصطناعي للمستهلكين الأمريكيين، بغض النظر عن مقر هذه الشركات.
بالنسبة للدول التي تطور حوكمتها الخاصة للذكاء الاصطناعي، تؤكد التجربة الأمريكية درساً حاسماً: التصرف مبكراً بإطار وطني متماسك، أو المخاطرة بخليط لا يرضي أحداً ويربك الجميع.
الأسئلة الشائعة
لماذا تنظم الولايات الأمريكية روبوتات المحادثة بدلاً من الحكومة الفيدرالية؟
لم يُقر الكونغرس تشريعاً شاملاً للذكاء الاصطناعي، مما خلق فراغاً تنظيمياً سارع المشرعون في الولايات لملئه بعد قضية انتحار المراهق المرتبطة بـ Character.AI. حاول الأمر التنفيذي للرئيس Trump في ديسمبر 2025 تأكيد الأولوية الفيدرالية بإنشاء فرقة عمل في وزارة العدل للطعن في قوانين الولايات المتعلقة بالذكاء الاصطناعي، لكنه استثنى صراحةً حماية الأطفال من الأسبقية — مما أعطى الضوء الأخضر فعلياً لمشاريع قوانين روبوتات المحادثة على مستوى الولايات التي تهيمن على الموجة التشريعية الحالية.
كيف تؤثر هذه القوانين على شركات الذكاء الاصطناعي العاملة خارج الولايات المتحدة؟
أي شركة يمكن لروبوت المحادثة الخاص بها الوصول إلى المستخدمين في هذه الولايات يجب أن تمتثل للتنظيمات المحلية، بغض النظر عن مقر الشركة. يعكس هذا الامتداد خارج الحدود الأثر العالمي للائحة حماية البيانات العامة الأوروبية. ستحتاج الشركات في أي مكان في العالم التي تبني منتجات ذكاء اصطناعي تحادثية للأسواق الدولية إلى مراعاة هذه المتطلبات إذا كانت تخدم مستخدمين أمريكيين، بما في ذلك المسؤولية الجنائية المحتملة بموجب SB 1493 لولاية تينيسي.
ما هو المتطلب الأكثر شيوعاً في جميع مشاريع القوانين هذه؟
الإفصاح الإلزامي بأن المستخدم يتفاعل مع ذكاء اصطناعي وليس إنساناً. تتطلب تقريباً جميع مشاريع القوانين إشعارات واضحة ومتكررة، وإن كانت التفاصيل تختلف: تفرض كاليفورنيا وواشنطن تذكيرات كل ثلاث ساعات للبالغين وكل ساعة للقاصرين، بينما تطالب عدة مشاريع مقترحة بإفصاح مستمر أو لكل جلسة. بروتوكولات إحالة منع الانتحار — تحديداً الإحالات إلى خط 988 Suicide & Crisis Lifeline — هي ثاني أكثر المتطلبات شيوعاً.
المصادر والقراءات الإضافية
- AI Chatbot Legislation Across the States — Stateside Associates
- Understanding the New Wave of Chatbot Legislation: California SB 243 and Beyond — Future of Privacy Forum
- Washington State Enacts Law Regulating AI Companion Chatbots — Hunton Andrews Kurth
- Oregon SB 1546: The First Chatbot Law With Real Teeth — Baker Botts
- Tennessee SB 1493 Could Ban AI Companions Like Nomi by July 2026 — RoboRhythms
- President Trump Signs Executive Order Challenging State AI Laws — Paul Hastings
- Google and Character.AI Agree to Settle Lawsuits Over Teen Suicides — CNN
- AI Legislative Update: March 27, 2026 — Transparency Coalition





