Pourquoi la première loi IA d’Asie du Sud-Est compte maintenant
Le 1er mars 2026, le Vietnam est devenu le premier pays d’Asie du Sud-Est à appliquer une loi autonome dédiée à l’intelligence artificielle. Adoptée par l’Assemblée nationale le 10 décembre 2025, la loi n 134/2025/QH15 représente un tournant décisif dans une région où les économies numériques sont en plein essor mais où les cadres de gouvernance accusent un retard sur le déploiement technologique.
Le calendrier est significatif. Le marché de l’IA en Asie du Sud-Est a atteint environ 12 milliards de dollars en 2025 et croît d’environ 37 % par an, selon Statista. Le Vietnam lui-même s’est imposé comme un pôle de talents en IA et d’externalisation logicielle. Pourtant, jusqu’à cette législation, aucun membre de l’ASEAN n’avait promulgué d’instrument juridique contraignant et complet régissant spécifiquement l’IA. Des pays comme Singapore, la Thaïlande et les Philippines s’appuyaient sur des lignes directrices volontaires, des cadres éthiques ou des réglementations sectorielles laissant d’importantes lacunes.
L’approche du Vietnam couvre l’intégralité du cycle de vie de l’IA — de la recherche et du développement jusqu’au déploiement et à l’utilisation finale — et introduit un système de classification des risques à trois niveaux. La loi s’applique aux entités nationales et étrangères engagées dans des activités liées à l’IA sur le territoire vietnamien, lui conférant une portée extraterritoriale similaire à celle du AI Act européen.
L’efficacité de la loi dépend de décrets d’application encore en cours d’élaboration en mars 2026. La manière dont le Vietnam comblera l’écart entre le texte législatif et l’application opérationnelle déterminera si cette loi deviendra un modèle de gouvernance pour le Sud global ou un texte bien intentionné qui peine en pratique.
Comment fonctionne le système de risque à trois niveaux
La pièce maîtresse de la loi 134/2025 est un système de classification basé sur le risque qui détermine les obligations réglementaires pour différentes applications d’IA. La classification dépend du niveau d’impact sur les droits humains, la sûreté et la sécurité ; des domaines d’utilisation ; de la portée des utilisateurs ; et de l’ampleur des conséquences potentielles.
Les systèmes d’IA à haut risque sont ceux susceptibles de causer des dommages significatifs à la vie, à la santé, aux droits et intérêts légitimes ou à la sécurité nationale. Parmi les exemples : les diagnostics médicaux, les services financiers par IA, l’identification biométrique et la gestion d’infrastructures critiques. Le Premier ministre publiera une liste officielle précisant quels systèmes à haut risque nécessitent des certifications de conformité préalables à la mise sur le marché. Tous les systèmes à haut risque font l’objet d’audits périodiques, d’évaluations d’impact obligatoires, d’obligations de transparence sur les données d’entraînement et la logique décisionnelle, d’un contrôle humain avec capacité de substitution et d’un suivi continu avec déclaration d’incidents.
Les systèmes d’IA à risque moyen sont définis comme ceux susceptibles de confondre, d’influencer ou de manipuler les utilisateurs parce que ceux-ci ignorent qu’ils interagissent avec un système d’IA ou consomment du contenu généré par l’IA. Ce niveau couvre les outils de génération de deepfakes, les chatbots non déclarés et les systèmes de contenu IA pouvant être confondus avec du travail humain. Ils sont supervisés par le biais de rapports, d’audits par échantillonnage et d’évaluations par des organismes indépendants.
Les systèmes d’IA à faible risque couvrent tout ce qui ne relève pas des niveaux supérieurs — filtres anti-spam, moteurs de recommandation, outils de planification et applications similaires. Ils font l’objet d’une surveillance minimale : suivi basé sur les incidents, les plaintes ou les contrôles de sécurité ponctuels.
La loi impose également que les contenus audio, visuels et vidéo générés par l’IA soient clairement étiquetés dans un format lisible par machine. Les déployeurs doivent informer les utilisateurs lorsque du contenu généré par l’IA présente un risque de confusion avec des événements ou des personnes réels.
L’architecture institutionnelle après la fusion ministérielle
La loi désigne le ministère des Sciences et de la Technologie (MOST) comme organisme de réglementation principal pour la gouvernance de l’IA. Cette désignation prend un poids particulier car, depuis le 1er mars 2025, l’ancien ministère de l’Information et des Communications (MIC) a fusionné avec le MOST, consolidant les responsabilités en matière de science, de technologie, de transformation numérique et d’IA au sein d’un seul ministère comptant 25 divisions.
Le MOST exploite un portail national à guichet unique pour l’IA et coordonne l’élaboration des décrets d’application. Les comités populaires provinciaux assurent la mise en oeuvre locale, surveillant le déploiement de l’IA dans leurs juridictions et signalant les problèmes de conformité au MOST. Ce mécanisme d’application décentralisé reconnaît la diversité géographique et économique du Vietnam.
Détail important pour les entreprises étrangères : les propositions initiales d’un comité national indépendant pour l’IA ont été abandonnées au cours du processus législatif. Toute la supervision de l’IA est centralisée sous le gouvernement, avec le MOST comme coordinateur principal.
Publicité
Périodes de grâce et le défi des décrets d’application
La loi prévoit des périodes de grâce structurées pour les systèmes d’IA existants. Les entreprises de la plupart des secteurs disposent de 12 mois — jusqu’au 1er mars 2027 — pour se mettre en conformité. Pour les systèmes d’IA dans la santé, l’éducation et la finance, la période de grâce s’étend à 18 mois, soit jusqu’au 1er septembre 2027. Les systèmes jugés présentant un risque de dommage grave peuvent être suspendus pendant la transition, quelle que soit la période de grâce.
Plusieurs questions critiques attendent des réponses au niveau réglementaire. Les critères spécifiques pour déterminer le niveau de risque d’un système d’IA n’ont pas été publiés. La structure des sanctions — montants des amendes, procédures d’escalade, mécanismes d’application — reste indéterminée. La méthodologie pour les évaluations d’impact obligatoires des systèmes à haut risque est encore en développement. Et le cadre de reconnaissance mutuelle des évaluations de conformité étrangères nécessite des négociations bilatérales non encore conclues.
Le MOST a indiqué que les décrets d’application seront publiés par phases tout au long de 2026 et jusqu’en 2027, les dispositions relatives aux systèmes à haut risque étant prioritaires.
Bacs à sable réglementaires et signal d’innovation
La loi comprend des dispositions pour des bacs à sable réglementaires — des environnements contrôlés où les entreprises peuvent tester des applications d’IA innovantes sous des exigences de conformité assouplies avec supervision gouvernementale. Les participants bénéficient d’exemptions temporaires et de responsabilités juridiques levées en échange du partage de données et de l’engagement réglementaire.
Ce mécanisme est conçu spécialement pour les startups de haute technologie. Pour les régulateurs, les bacs à sable offrent une exposition directe aux applications d’IA de pointe. Pour l’industrie internationale, ils signalent que la posture réglementaire du Vietnam n’est pas restrictive par réflexe. Les entreprises participantes obtiennent des avantages de premier arrivant : relations directes avec les régulateurs, contribution à l’élaboration des décrets et expérience précoce de conformité.
Effets d’entraînement à travers l’ASEAN
La législation vietnamienne arrive dans une région où chaque grande économie se confronte à la gouvernance de l’IA, et son approche influencera les choix voisins.
Singapore a mené la gouvernance IA régionale à travers des cadres volontaires — le Model AI Governance Framework (2019) et la boîte à outils AI Verify. Si le Vietnam démontre qu’une législation contraignante ne dissuade pas l’investissement, Singapore pourrait subir une pression croissante pour dépasser les mécanismes volontaires.
L’agence thaïlandaise de développement du gouvernement numérique développe un projet de loi sur l’IA depuis 2023, inspiré du AI Act européen. Le processus a connu des retards et l’ETDA révise actuellement le projet consolidé après consultation publique en 2025. Le calendrier d’adoption reste incertain, bien que les progrès du Vietnam aient intensifié l’attention régionale sur la gouvernance de l’IA.
Les Philippines ont lancé leur National AI Strategy Roadmap 2.0 en juillet 2024, axée sur l’adoption. L’AI National Strategy 2020-2045 de l’Indonésie se concentre sur le renforcement des capacités. Les deux pays suivent la mise en oeuvre vietnamienne pour orienter leurs propres approches.
Au niveau régional, le Guide ASEAN sur la gouvernance et l’éthique de l’IA (2024) — élargi en janvier 2025 pour couvrir l’IA générative — établit des principes volontaires. Si plusieurs membres de l’ASEAN adoptent des lois contraignantes à la suite du Vietnam, la pression s’accentuera pour un instrument régional harmonisé.
Questions fréquemment posées
Qu’est-ce que la loi vietnamienne sur l’IA et quand est-elle entrée en vigueur ?
La loi vietnamienne sur l’intelligence artificielle (n 134/2025/QH15) est la première législation autonome sur l’IA en Asie du Sud-Est. Adoptée par l’Assemblée nationale le 10 décembre 2025, elle est entrée en vigueur le 1er mars 2026. La loi comprend 8 chapitres et 35 articles couvrant l’intégralité du cycle de vie de l’IA, de la recherche au déploiement et à l’utilisation. Les systèmes d’IA existants bénéficient de périodes de grâce de 12 mois (général) ou 18 mois (secteurs de la santé, de l’éducation et de la finance) pour se mettre en conformité.
Comment le système de risque à trois niveaux du Vietnam classe-t-il les applications d’IA ?
La loi classe l’IA en haut risque (systèmes susceptibles de causer des dommages significatifs à la vie, à la santé, aux droits ou à la sécurité nationale), risque moyen (systèmes susceptibles de confondre ou manipuler des utilisateurs ignorant l’interaction avec l’IA ou le contenu généré par l’IA) et faible risque (tous les autres). Les systèmes à haut risque font l’objet d’évaluations d’impact obligatoires, d’audits périodiques et de certifications de conformité potentielles avant mise sur le marché. Le Premier ministre publiera une liste officielle des catégories à haut risque.
Quel impact la loi vietnamienne aura-t-elle sur les autres pays de l’ASEAN ?
La loi vietnamienne intensifie les discussions sur la gouvernance de l’IA dans toute la région. La Thaïlande développe un projet de loi sur l’IA depuis 2023, encore en cours de révision. Singapore subit une pression pour dépasser son Model AI Governance Framework volontaire. Les Philippines et l’Indonésie suivent la mise en oeuvre vietnamienne. Au niveau de l’ASEAN, le Guide 2024 sur la gouvernance et l’éthique de l’IA est volontaire ; si plusieurs membres adoptent des lois contraignantes à la suite du Vietnam, la pression s’accentuera pour un accord-cadre régional harmonisé sur l’IA.
Questions Fréquemment Posées
Sources et lectures complémentaires
- Vietnam AI Law: Foundation and Outlook — Baker McKenzie (février 2026)
- Vietnam’s First Standalone AI Law: Key Provisions and Implications — IAPP
- Vietnam: The First Law on Artificial Intelligence — Duane Morris
- Vietnam AI Law: Regulatory Milestone and Business Implications — Vietnam Briefing
- Vietnam’s New AI Law Balances Innovation Push With Tight State Control — TechPolicy.Press
- Official Law No. 134/2025/QH15 Full Text — LuatVietnam
- ASEAN Guide on AI Governance and Ethics — ASEAN Secretariat (2024)














