⚡ Points Clés

La loi vietnamienne sur l’intelligence artificielle (n° 134/2025) est entrée en vigueur le 1er mars 2026, devenant la première législation autonome sur l’IA en Asie du Sud-Est. Cette loi de 35 articles introduit une classification des risques à trois niveaux, impose l’étiquetage du contenu généré par l’IA et prévoit des périodes de grâce jusqu’en septembre 2027 pour les secteurs de la santé, de l’éducation et de la finance. Le ministère consolidé des Sciences et de la Technologie dirige la gouvernance via un portail national à guichet unique.

En résumé : Les entreprises exploitant l’IA en Asie du Sud-Est devraient commencer à cartographier leurs systèmes selon le cadre de risque à trois niveaux du Vietnam dès maintenant, car les périodes de grâce expirent en mars 2027 et les décrets d’application précisant les critères de classification et les sanctions sont attendus tout au long de 2026.

Lire l’analyse complète ↓

Publicité

🧭 Radar de Décision (Perspective Algérie)

Pertinence pour l’Algérie
Élevée

La loi vietnamienne offre le modèle le plus pertinent pour l’Algérie en tant qu’économie en développement poursuivant la réglementation de l’IA. L’Algérie a adopté sa Stratégie nationale d’IA en décembre 2024 mais ne dispose d’aucune législation dédiée à l’IA. L’approche cycle de vie et les niveaux de risque du Vietnam constituent un modèle concret à étudier.
Infrastructure prête ?
Partielle

L’Algérie dispose de l’ASAL et de plans d’infrastructure numérique, mais manque d’une institution réglementaire dédiée à l’IA comparable au MOST consolidé du Vietnam avec son portail IA. Aucun cadre d’évaluation de conformité ou de capacité d’audit algorithmique n’existe encore.
Compétences disponibles ?
Partielles

L’Algérie dispose de talents juridiques et techniques, mais l’expertise spécialisée en gouvernance de l’IA pour les évaluations d’impact, les bacs à sable réglementaires et l’audit algorithmique est limitée. Le développement des compétences serait essentiel avant d’adopter un cadre comparable.
Horizon d’action
12-24 mois

Les décrets d’application et l’expérience d’application du Vietnam jusqu’en 2027 fourniront des enseignements critiques. L’Algérie devrait étudier les résultats avant d’adapter des éléments, particulièrement sur la capacité institutionnelle et la charge de conformité pour les PME.
Parties prenantes clés
Ministère de la Poste et des Télécommunications, ministère de l’Économie numérique et des Startups, ASAL, ARPCE, laboratoires de recherche universitaires en IA, écosystème startup
Type de décision
Stratégique

La loi vietnamienne éclaire la planification à long terme de la gouvernance nationale de l’IA. Le modèle de mise en oeuvre progressive et le concept de bac à sable réglementaire sont directement adaptables à la capacité institutionnelle de l’Algérie.

En bref : La loi autonome du Vietnam sur l’IA offre à l’Algérie un modèle réglementaire pratique issu d’une économie en développement comparable. Les décideurs algériens devraient suivre le déploiement des décrets d’application et l’expérience d’exécution du Vietnam jusqu’en 2027, car les enseignements sur le renforcement des capacités institutionnelles, la gestion des périodes de grâce et l’équilibre entre charge de conformité pour les PME et rigueur réglementaire seront directement applicables au parcours de gouvernance algérien.

Pourquoi la première loi IA d’Asie du Sud-Est compte maintenant

Le 1er mars 2026, le Vietnam est devenu le premier pays d’Asie du Sud-Est à appliquer une loi autonome dédiée à l’intelligence artificielle. Adoptée par l’Assemblée nationale le 10 décembre 2025, la loi n 134/2025/QH15 représente un tournant décisif dans une région où les économies numériques sont en plein essor mais où les cadres de gouvernance accusent un retard sur le déploiement technologique.

Le calendrier est significatif. Le marché de l’IA en Asie du Sud-Est a atteint environ 12 milliards de dollars en 2025 et croît d’environ 37 % par an, selon Statista. Le Vietnam lui-même s’est imposé comme un pôle de talents en IA et d’externalisation logicielle. Pourtant, jusqu’à cette législation, aucun membre de l’ASEAN n’avait promulgué d’instrument juridique contraignant et complet régissant spécifiquement l’IA. Des pays comme Singapore, la Thaïlande et les Philippines s’appuyaient sur des lignes directrices volontaires, des cadres éthiques ou des réglementations sectorielles laissant d’importantes lacunes.

L’approche du Vietnam couvre l’intégralité du cycle de vie de l’IA — de la recherche et du développement jusqu’au déploiement et à l’utilisation finale — et introduit un système de classification des risques à trois niveaux. La loi s’applique aux entités nationales et étrangères engagées dans des activités liées à l’IA sur le territoire vietnamien, lui conférant une portée extraterritoriale similaire à celle du AI Act européen.

L’efficacité de la loi dépend de décrets d’application encore en cours d’élaboration en mars 2026. La manière dont le Vietnam comblera l’écart entre le texte législatif et l’application opérationnelle déterminera si cette loi deviendra un modèle de gouvernance pour le Sud global ou un texte bien intentionné qui peine en pratique.

Comment fonctionne le système de risque à trois niveaux

La pièce maîtresse de la loi 134/2025 est un système de classification basé sur le risque qui détermine les obligations réglementaires pour différentes applications d’IA. La classification dépend du niveau d’impact sur les droits humains, la sûreté et la sécurité ; des domaines d’utilisation ; de la portée des utilisateurs ; et de l’ampleur des conséquences potentielles.

Les systèmes d’IA à haut risque sont ceux susceptibles de causer des dommages significatifs à la vie, à la santé, aux droits et intérêts légitimes ou à la sécurité nationale. Parmi les exemples : les diagnostics médicaux, les services financiers par IA, l’identification biométrique et la gestion d’infrastructures critiques. Le Premier ministre publiera une liste officielle précisant quels systèmes à haut risque nécessitent des certifications de conformité préalables à la mise sur le marché. Tous les systèmes à haut risque font l’objet d’audits périodiques, d’évaluations d’impact obligatoires, d’obligations de transparence sur les données d’entraînement et la logique décisionnelle, d’un contrôle humain avec capacité de substitution et d’un suivi continu avec déclaration d’incidents.

Les systèmes d’IA à risque moyen sont définis comme ceux susceptibles de confondre, d’influencer ou de manipuler les utilisateurs parce que ceux-ci ignorent qu’ils interagissent avec un système d’IA ou consomment du contenu généré par l’IA. Ce niveau couvre les outils de génération de deepfakes, les chatbots non déclarés et les systèmes de contenu IA pouvant être confondus avec du travail humain. Ils sont supervisés par le biais de rapports, d’audits par échantillonnage et d’évaluations par des organismes indépendants.

Les systèmes d’IA à faible risque couvrent tout ce qui ne relève pas des niveaux supérieurs — filtres anti-spam, moteurs de recommandation, outils de planification et applications similaires. Ils font l’objet d’une surveillance minimale : suivi basé sur les incidents, les plaintes ou les contrôles de sécurité ponctuels.

La loi impose également que les contenus audio, visuels et vidéo générés par l’IA soient clairement étiquetés dans un format lisible par machine. Les déployeurs doivent informer les utilisateurs lorsque du contenu généré par l’IA présente un risque de confusion avec des événements ou des personnes réels.

L’architecture institutionnelle après la fusion ministérielle

La loi désigne le ministère des Sciences et de la Technologie (MOST) comme organisme de réglementation principal pour la gouvernance de l’IA. Cette désignation prend un poids particulier car, depuis le 1er mars 2025, l’ancien ministère de l’Information et des Communications (MIC) a fusionné avec le MOST, consolidant les responsabilités en matière de science, de technologie, de transformation numérique et d’IA au sein d’un seul ministère comptant 25 divisions.

Le MOST exploite un portail national à guichet unique pour l’IA et coordonne l’élaboration des décrets d’application. Les comités populaires provinciaux assurent la mise en oeuvre locale, surveillant le déploiement de l’IA dans leurs juridictions et signalant les problèmes de conformité au MOST. Ce mécanisme d’application décentralisé reconnaît la diversité géographique et économique du Vietnam.

Détail important pour les entreprises étrangères : les propositions initiales d’un comité national indépendant pour l’IA ont été abandonnées au cours du processus législatif. Toute la supervision de l’IA est centralisée sous le gouvernement, avec le MOST comme coordinateur principal.

Publicité

Périodes de grâce et le défi des décrets d’application

La loi prévoit des périodes de grâce structurées pour les systèmes d’IA existants. Les entreprises de la plupart des secteurs disposent de 12 mois — jusqu’au 1er mars 2027 — pour se mettre en conformité. Pour les systèmes d’IA dans la santé, l’éducation et la finance, la période de grâce s’étend à 18 mois, soit jusqu’au 1er septembre 2027. Les systèmes jugés présentant un risque de dommage grave peuvent être suspendus pendant la transition, quelle que soit la période de grâce.

Plusieurs questions critiques attendent des réponses au niveau réglementaire. Les critères spécifiques pour déterminer le niveau de risque d’un système d’IA n’ont pas été publiés. La structure des sanctions — montants des amendes, procédures d’escalade, mécanismes d’application — reste indéterminée. La méthodologie pour les évaluations d’impact obligatoires des systèmes à haut risque est encore en développement. Et le cadre de reconnaissance mutuelle des évaluations de conformité étrangères nécessite des négociations bilatérales non encore conclues.

Le MOST a indiqué que les décrets d’application seront publiés par phases tout au long de 2026 et jusqu’en 2027, les dispositions relatives aux systèmes à haut risque étant prioritaires.

Bacs à sable réglementaires et signal d’innovation

La loi comprend des dispositions pour des bacs à sable réglementaires — des environnements contrôlés où les entreprises peuvent tester des applications d’IA innovantes sous des exigences de conformité assouplies avec supervision gouvernementale. Les participants bénéficient d’exemptions temporaires et de responsabilités juridiques levées en échange du partage de données et de l’engagement réglementaire.

Ce mécanisme est conçu spécialement pour les startups de haute technologie. Pour les régulateurs, les bacs à sable offrent une exposition directe aux applications d’IA de pointe. Pour l’industrie internationale, ils signalent que la posture réglementaire du Vietnam n’est pas restrictive par réflexe. Les entreprises participantes obtiennent des avantages de premier arrivant : relations directes avec les régulateurs, contribution à l’élaboration des décrets et expérience précoce de conformité.

Effets d’entraînement à travers l’ASEAN

La législation vietnamienne arrive dans une région où chaque grande économie se confronte à la gouvernance de l’IA, et son approche influencera les choix voisins.

Singapore a mené la gouvernance IA régionale à travers des cadres volontaires — le Model AI Governance Framework (2019) et la boîte à outils AI Verify. Si le Vietnam démontre qu’une législation contraignante ne dissuade pas l’investissement, Singapore pourrait subir une pression croissante pour dépasser les mécanismes volontaires.

L’agence thaïlandaise de développement du gouvernement numérique développe un projet de loi sur l’IA depuis 2023, inspiré du AI Act européen. Le processus a connu des retards et l’ETDA révise actuellement le projet consolidé après consultation publique en 2025. Le calendrier d’adoption reste incertain, bien que les progrès du Vietnam aient intensifié l’attention régionale sur la gouvernance de l’IA.

Les Philippines ont lancé leur National AI Strategy Roadmap 2.0 en juillet 2024, axée sur l’adoption. L’AI National Strategy 2020-2045 de l’Indonésie se concentre sur le renforcement des capacités. Les deux pays suivent la mise en oeuvre vietnamienne pour orienter leurs propres approches.

Au niveau régional, le Guide ASEAN sur la gouvernance et l’éthique de l’IA (2024) — élargi en janvier 2025 pour couvrir l’IA générative — établit des principes volontaires. Si plusieurs membres de l’ASEAN adoptent des lois contraignantes à la suite du Vietnam, la pression s’accentuera pour un instrument régional harmonisé.

Suivez AlgeriaTech sur LinkedIn pour des analyses tech professionnelles Suivre sur LinkedIn
Suivez @AlgeriaTechNews sur X pour des analyses tech quotidiennes Suivre sur X

Publicité

Questions fréquemment posées

Qu’est-ce que la loi vietnamienne sur l’IA et quand est-elle entrée en vigueur ?

La loi vietnamienne sur l’intelligence artificielle (n 134/2025/QH15) est la première législation autonome sur l’IA en Asie du Sud-Est. Adoptée par l’Assemblée nationale le 10 décembre 2025, elle est entrée en vigueur le 1er mars 2026. La loi comprend 8 chapitres et 35 articles couvrant l’intégralité du cycle de vie de l’IA, de la recherche au déploiement et à l’utilisation. Les systèmes d’IA existants bénéficient de périodes de grâce de 12 mois (général) ou 18 mois (secteurs de la santé, de l’éducation et de la finance) pour se mettre en conformité.

Comment le système de risque à trois niveaux du Vietnam classe-t-il les applications d’IA ?

La loi classe l’IA en haut risque (systèmes susceptibles de causer des dommages significatifs à la vie, à la santé, aux droits ou à la sécurité nationale), risque moyen (systèmes susceptibles de confondre ou manipuler des utilisateurs ignorant l’interaction avec l’IA ou le contenu généré par l’IA) et faible risque (tous les autres). Les systèmes à haut risque font l’objet d’évaluations d’impact obligatoires, d’audits périodiques et de certifications de conformité potentielles avant mise sur le marché. Le Premier ministre publiera une liste officielle des catégories à haut risque.

Quel impact la loi vietnamienne aura-t-elle sur les autres pays de l’ASEAN ?

La loi vietnamienne intensifie les discussions sur la gouvernance de l’IA dans toute la région. La Thaïlande développe un projet de loi sur l’IA depuis 2023, encore en cours de révision. Singapore subit une pression pour dépasser son Model AI Governance Framework volontaire. Les Philippines et l’Indonésie suivent la mise en oeuvre vietnamienne. Au niveau de l’ASEAN, le Guide 2024 sur la gouvernance et l’éthique de l’IA est volontaire ; si plusieurs membres adoptent des lois contraignantes à la suite du Vietnam, la pression s’accentuera pour un accord-cadre régional harmonisé sur l’IA.

Questions Fréquemment Posées

Sources et lectures complémentaires