لماذا يهم أول قانون للذكاء الاصطناعي في جنوب شرق آسيا الآن
في 1 مارس 2026، أصبحت Vietnam أول دولة في جنوب شرق آسيا تطبق قانونًا مستقلاً مخصصًا للذكاء الاصطناعي. اعتمدته الجمعية الوطنية في 10 ديسمبر 2025، ويمثل القانون رقم 134/2025/QH15 تحولاً حاسمًا في منطقة تشهد ازدهارًا في الاقتصادات الرقمية لكن أطر الحوكمة فيها تتأخر عن وتيرة النشر التقني.
التوقيت ذو دلالة. بلغ سوق الذكاء الاصطناعي في جنوب شرق آسيا ما يقدر بنحو 12 مليار دولار في 2025 وينمو بنحو 37% سنويًا وفقًا لـ Statista. برزت Vietnam نفسها كمركز لمواهب الذكاء الاصطناعي والاستعانة بمصادر خارجية للبرمجيات. ومع ذلك، لم تسن أي دولة عضو في ASEAN حتى هذا التشريع أداة قانونية شاملة وملزمة تحكم الذكاء الاصطناعي تحديدًا. اعتمدت دول مثل Singapore وتايلاند والفلبين على مبادئ توجيهية طوعية أو أطر أخلاقية أو تنظيمات قطاعية تترك فجوات حوكمة كبيرة.
يغطي نهج Vietnam دورة حياة الذكاء الاصطناعي بالكامل — من البحث والتطوير حتى النشر والاستخدام النهائي — ويقدم نظام تصنيف مخاطر ثلاثي المستويات. ينطبق القانون على الكيانات المحلية والأجنبية العاملة في أنشطة الذكاء الاصطناعي على الأراضي الفيتنامية، مما يمنحه نطاقًا خارج الحدود الإقليمية يشبه قانون الذكاء الاصطناعي الأوروبي.
تتوقف فعالية القانون على مراسيم تطبيقية لا تزال قيد الإعداد حتى مارس 2026. ستحدد طريقة معالجة Vietnam للفجوة بين النص التشريعي والتطبيق الفعلي ما إذا كان هذا القانون سيصبح نموذجًا للحوكمة في دول الجنوب العالمي أم نصًا حسن النية يواجه صعوبات عملية.
كيف يعمل نظام المخاطر ثلاثي المستويات
الركيزة الأساسية للقانون 134/2025 هي نظام تصنيف قائم على المخاطر يحدد الالتزامات التنظيمية لمختلف تطبيقات الذكاء الاصطناعي. يعتمد التصنيف على مستوى التأثير على حقوق الإنسان والسلامة والأمن؛ والمجالات التي يعمل فيها النظام؛ ونطاق المستخدمين؛ وحجم العواقب المحتملة.
أنظمة الذكاء الاصطناعي عالية المخاطر هي تلك التي قد تسبب أضرارًا جسيمة للحياة أو الصحة أو الحقوق والمصالح المشروعة أو الأمن الوطني. تشمل الأمثلة: التشخيص الطبي، والخدمات المالية بالذكاء الاصطناعي، والتعرف البيومتري، وإدارة البنى التحتية الحيوية. سيصدر رئيس الوزراء قائمة رسمية تحدد الأنظمة عالية المخاطر التي تتطلب شهادات مطابقة قبل طرحها في السوق. تخضع جميع الأنظمة عالية المخاطر لتدقيقات دورية وتقييمات أثر إلزامية والتزامات شفافية حول بيانات التدريب ومنطق القرار ورقابة بشرية مع قدرة على التجاوز ومراقبة مستمرة مع الإبلاغ عن الحوادث.
أنظمة الذكاء الاصطناعي متوسطة المخاطر تُعرَّف بأنها تلك التي قد تُربك أو تؤثر على المستخدمين أو تتلاعب بهم لأنهم لا يدركون أنهم يتفاعلون مع نظام ذكاء اصطناعي أو يستهلكون محتوى مولدًا بالذكاء الاصطناعي. يشمل هذا المستوى أدوات توليد التزييف العميق (Deepfake) وروبوتات المحادثة غير المعلنة وأنظمة محتوى الذكاء الاصطناعي التي قد يُخلط بينها وبين العمل البشري. تُشرف عليها من خلال التقارير والتدقيقات بالعينات والتقييمات من منظمات مستقلة.
أنظمة الذكاء الاصطناعي منخفضة المخاطر تغطي كل ما لا يندرج ضمن المستويات الأعلى — فلاتر البريد المزعج ومحركات التوصية وأدوات الجدولة والتطبيقات المماثلة. تخضع لمراقبة دنيا: متابعة قائمة على الحوادث أو الشكاوى أو فحوصات السلامة عند الحاجة.
يفرض القانون أيضًا أن يكون المحتوى الصوتي والمرئي والمصور المُولَّد بالذكاء الاصطناعي مُعلَّمًا بوضوح بتنسيق قابل للقراءة آليًا. يجب على الناشرين إبلاغ المستخدمين عندما يشكل المحتوى المُولَّد بالذكاء الاصطناعي خطر خلط مع أحداث أو أشخاص حقيقيين.
البنية المؤسسية بعد دمج الوزارات
يُعيّن القانون وزارة العلوم والتكنولوجيا (MOST) كهيئة تنظيمية رئيسية لحوكمة الذكاء الاصطناعي. يكتسب هذا التعيين ثقلاً خاصًا لأنه منذ 1 مارس 2025، اندمجت وزارة المعلومات والاتصالات السابقة (MIC) في MOST، مما وحّد مسؤوليات العلوم والتكنولوجيا والتحول الرقمي والذكاء الاصطناعي تحت وزارة واحدة تضم 25 قسمًا.
يُشغّل MOST بوابة وطنية للذكاء الاصطناعي بنافذة واحدة وينسق إعداد مراسيم التطبيق. تتولى لجان الشعب على مستوى المقاطعات التنفيذ المحلي، مراقبةً نشر الذكاء الاصطناعي في نطاق ولايتها القضائية وإبلاغ MOST بمشكلات الامتثال.
تفصيل مهم للشركات الأجنبية: تم التخلي عن المقترحات الأولية لإنشاء لجنة وطنية مستقلة للذكاء الاصطناعي خلال العملية التشريعية. جميع إشراف الذكاء الاصطناعي مركزي تحت الحكومة، مع MOST كمنسق رئيسي.
إعلان
فترات السماح وتحدي مراسيم التطبيق
يوفر القانون فترات سماح منظمة لأنظمة الذكاء الاصطناعي القائمة. تملك الشركات في معظم القطاعات 12 شهرًا — حتى 1 مارس 2027 — لتحقيق الامتثال. بالنسبة لأنظمة الذكاء الاصطناعي في الصحة والتعليم والمالية، تمتد فترة السماح إلى 18 شهرًا حتى 1 سبتمبر 2027. يمكن تعليق الأنظمة التي يُعتبر أنها تشكل خطر ضرر جسيم خلال الفترة الانتقالية بغض النظر عن فترة السماح.
عدة أسئلة حرجة تنتظر إجابات على مستوى المراسيم. لم تُنشر المعايير المحددة لتحديد مستوى خطورة نظام الذكاء الاصطناعي. لا تزال هيكلة العقوبات — مبالغ الغرامات وإجراءات التصعيد وآليات التنفيذ — غير محددة. منهجية تقييمات الأثر الإلزامية للأنظمة عالية المخاطر قيد التطوير. وإطار الاعتراف المتبادل بتقييمات المطابقة الأجنبية يتطلب مفاوضات ثنائية لم تُختتم بعد.
أشار MOST إلى أن مراسيم التطبيق ستصدر على مراحل خلال 2026 وحتى 2027، مع إعطاء الأولوية لأحكام أنظمة الذكاء الاصطناعي عالية المخاطر.
البيئات التجريبية التنظيمية وإشارة الابتكار
يتضمن القانون أحكامًا للبيئات التجريبية التنظيمية — بيئات خاضعة للرقابة يمكن للشركات فيها اختبار تطبيقات ذكاء اصطناعي مبتكرة تحت متطلبات امتثال مخففة مع إشراف حكومي. يستفيد المشاركون من إعفاءات مؤقتة ومسؤوليات قانونية مرفوعة مقابل مشاركة البيانات والتعاون التنظيمي.
صُمم هذا الآلية خصيصًا للشركات الناشئة التقنية المتقدمة. بالنسبة للمنظمين، توفر البيئات التجريبية تعرضًا مباشرًا لتطبيقات الذكاء الاصطناعي المتطورة. وبالنسبة للصناعة الدولية، فإنها تُشير إلى أن الموقف التنظيمي لـ Vietnam ليس تقييديًا بشكل انعكاسي. تحصل الشركات المشاركة على مزايا الريادة: علاقات مباشرة مع المنظمين، والمساهمة في صياغة المراسيم، وخبرة امتثال مبكرة.
التأثيرات المتتالية عبر ASEAN
يصل التشريع الفيتنامي في منطقة تتصارع فيها كل اقتصاد كبير مع حوكمة الذكاء الاصطناعي، وسيؤثر نهجه على خيارات الدول المجاورة.
قادت Singapore حوكمة الذكاء الاصطناعي الإقليمية من خلال أطر طوعية — Model AI Governance Framework (2019) وأداة AI Verify. إذا أثبتت Vietnam أن التشريع الملزم لا يُنفّر الاستثمار، فقد تواجه Singapore ضغوطًا متزايدة لتجاوز الآليات الطوعية.
تعمل وكالة تطوير الحكومة الرقمية في تايلاند على مشروع قانون للذكاء الاصطناعي منذ 2023 مستوحى من قانون الذكاء الاصطناعي الأوروبي. شهدت العملية تأخيرات وتراجع ETDA حاليًا المسودة الموحدة بعد استشارة عامة في 2025. يبقى الجدول الزمني للاعتماد غير واضح، رغم أن تقدم Vietnam كثّف الاهتمام الإقليمي بحوكمة الذكاء الاصطناعي.
أطلقت الفلبين خارطة طريقها الوطنية للذكاء الاصطناعي 2.0 في يوليو 2024 مع التركيز على التبني. تركز الاستراتيجية الوطنية للذكاء الاصطناعي في إندونيسيا 2020-2045 على بناء القدرات. يراقب كلا البلدين تطبيق Vietnam لتوجيه نهجهما.
على المستوى الإقليمي، يُرسي دليل ASEAN حول حوكمة وأخلاقيات الذكاء الاصطناعي (2024) — الموسَّع في يناير 2025 ليشمل الذكاء الاصطناعي التوليدي — مبادئ طوعية. إذا تبنى عدة أعضاء في ASEAN قوانين ملزمة على غرار Vietnam، سيتصاعد الضغط نحو أداة إقليمية منسقة.
الأسئلة الشائعة
ما هو قانون الذكاء الاصطناعي في Vietnam ومتى دخل حيز التنفيذ؟
قانون الذكاء الاصطناعي في Vietnam (رقم 134/2025/QH15) هو أول تشريع مستقل للذكاء الاصطناعي في جنوب شرق آسيا. اعتمدته الجمعية الوطنية في 10 ديسمبر 2025 ودخل حيز التنفيذ في 1 مارس 2026. يتضمن القانون 8 فصول و35 مادة تغطي دورة حياة الذكاء الاصطناعي بالكامل من البحث إلى النشر والاستخدام. تستفيد أنظمة الذكاء الاصطناعي القائمة من فترات سماح مدتها 12 شهرًا (عام) أو 18 شهرًا (قطاعات الصحة والتعليم والمالية) لتحقيق الامتثال.
كيف يصنف نظام المخاطر ثلاثي المستويات تطبيقات الذكاء الاصطناعي؟
يصنف القانون الذكاء الاصطناعي إلى عالي المخاطر (أنظمة قد تسبب أضرارًا جسيمة للحياة أو الصحة أو الحقوق أو الأمن الوطني)، ومتوسط المخاطر (أنظمة قد تُربك أو تتلاعب بمستخدمين لا يدركون التفاعل مع الذكاء الاصطناعي أو المحتوى المُولَّد)، ومنخفض المخاطر (جميع الأخرى). تخضع الأنظمة عالية المخاطر لتقييمات أثر إلزامية وتدقيقات دورية وشهادات مطابقة محتملة قبل الطرح في السوق. سينشر رئيس الوزراء قائمة رسمية بفئات المخاطر العالية.
ما تأثير القانون الفيتنامي على دول ASEAN الأخرى؟
يُكثّف القانون الفيتنامي النقاشات حول حوكمة الذكاء الاصطناعي في المنطقة. تعمل تايلاند على مشروع قانون للذكاء الاصطناعي منذ 2023 لا يزال قيد المراجعة. تواجه Singapore ضغوطًا لتجاوز إطار Model AI Governance Framework الطوعي. تراقب الفلبين وإندونيسيا تطبيق Vietnam. على مستوى ASEAN، دليل 2024 حول حوكمة وأخلاقيات الذكاء الاصطناعي طوعي؛ إذا تبنى عدة أعضاء قوانين ملزمة على غرار Vietnam، سيتصاعد الضغط نحو اتفاق إطاري إقليمي منسق للذكاء الاصطناعي.
—
المصادر والقراءات الإضافية
- Vietnam AI Law: Foundation and Outlook — Baker McKenzie (فبراير 2026)
- Vietnam’s First Standalone AI Law: Key Provisions and Implications — IAPP
- Vietnam: The First Law on Artificial Intelligence — Duane Morris
- Vietnam AI Law: Regulatory Milestone and Business Implications — Vietnam Briefing
- Vietnam’s New AI Law Balances Innovation Push With Tight State Control — TechPolicy.Press
- Official Law No. 134/2025/QH15 Full Text — LuatVietnam
- ASEAN Guide on AI Governance and Ethics — ASEAN Secretariat (2024)















