Ce que l’Accord du 7 Mai a Réellement Changé
Le trilogue du 28 avril 2026 sur l’Omnibus numérique IA de l’UE s’est effondré sans accord. L’avancée est survenue neuf jours plus tard. Le 7 mai 2026, le Conseil européen et le Parlement européen ont conclu un accord politique sur le paquet Omnibus, tel que confirmé par le communiqué de presse du Conseil.
L’accord, analysé par Modulos AI, Tech Policy Press et Hogan Lovells, modifie le calendrier d’application de l’AI Act de trois manières :
1. IA à haut risque (Annexe III) — systèmes autonomes. Le délai de conformité passe du 2 août 2026 au 2 décembre 2027 — une extension de 16 mois. L’Annexe III couvre les applications à haut risque dans l’identification biométrique, les infrastructures critiques, l’éducation, l’emploi, l’accès aux services essentiels, les forces de l’ordre, la migration et l’administration de la justice.
2. IA à haut risque intégrée dans des produits réglementés. Les systèmes d’IA intégrés dans des produits déjà régis par la législation sectorielle de sécurité de l’UE (dispositifs médicaux sous MDR/IVDR, machines sous le Règlement Machines, jouets sous la Directive Sécurité des Jouets) font face à un calendrier étendu séparé jusqu’au 2 août 2028. L’accord Omnibus résout le principal point de blocage de l’échec du 28 avril : le Parlement a accepté une exemption plus limitée pour ces systèmes plutôt qu’une exemption totale.
3. Obligations de filigrane et de transparence (Article 50) — inchangées. L’accord préserve explicitement le délai de décembre 2026 pour les obligations de filigrane des contenus générés par IA et de divulgation. Cela inclut les images, l’audio et la vidéo générés par IA. Pour les plateformes de contenu, les outils médias et toute entreprise déployant une IA générative pour du contenu orienté client, le délai de décembre 2026 est la priorité de conformité immédiate.
Ce que l’Accord ne Change Pas
Les obligations des modèles d’IA à usage général (GPAI) restent dans les délais. Les obligations GPAI au titre des Articles 51-56, couvrant les fournisseurs de modèles d’IA à usage général, ne sont pas modifiées par l’accord Omnibus. La date d’obligation du 2 août 2025 pour les fournisseurs de modèles GPAI est déjà passée. L’Omnibus ne crée aucun allègement pour les fournisseurs de modèles GPAI.
La liste des pratiques interdites est inchangée. La liste des applications d’IA interdites par l’Article 5 — notation sociale, surveillance biométrique en temps réel dans les espaces publics, techniques subliminales manipulatrices, exploitation des vulnérabilités — est en vigueur depuis le 2 février 2026. L’Omnibus ne modifie pas ces interdictions.
L’AI Act de l’UE s’applique toujours aux fournisseurs de pays tiers. Les entreprises non-UE dont les systèmes d’IA sont utilisés sur le marché de l’UE restent soumises aux obligations complètes de l’AI Act selon le même calendrier que les fournisseurs basés dans l’UE. La simplification Omnibus ne modifie pas la portée extraterritoriale de l’Acte.
Publicité
Ce que les PME et les Équipes de Conformité Doivent Faire Maintenant
L’extension de 16 mois jusqu’à décembre 2027 offre un temps significatif pour compléter la conformité IA à haut risque, mais elle ne doit pas être confondue avec une exemption.
1. Auditez Immédiatement les Obligations de Filigrane Article 50 — Décembre 2026 est Inchangé
Le délai de filigrane est l’obligation de conformité la plus immédiate et la plus susceptible d’être négligée dans le soulagement de l’extension haut risque. L’Article 50 exige que les systèmes d’IA générant des images, de l’audio et de la vidéo synthétiques implémentent un marquage lisible par machine (filigrane ou intégration de métadonnées) qui étiquette le contenu comme généré par IA. Toute entreprise déployant des outils de génération d’images, de synthèse vocale ou de génération vidéo pour du contenu orienté client — matériaux marketing, images de produits, audio de service client, vidéos de formation — doit avoir des solutions techniques de filigrane en place avant décembre 2026. Réalisez un inventaire de tous les déploiements d’IA générative dans les flux de travail orientés client maintenant. La guidance IAPP sur l’accord Omnibus note que cette obligation s’applique même aux systèmes non classifiés à haut risque.
2. Utilisez la Fenêtre 2026-2027 pour Compléter les Évaluations de Conformité pour les Systèmes Annexe III
Le délai de décembre 2027 pour les systèmes d’IA autonomes à haut risque crée une fenêtre claire de 18 mois pour la réalisation des évaluations de conformité. Le processus d’évaluation de conformité pour les systèmes d’IA Annexe III exige : un dossier de documentation technique, un système de gestion des risques documenté au titre de l’Article 9, un système de gestion de la qualité couvrant le cycle de vie du système d’IA, une politique de gouvernance des données au titre de l’Article 10, et l’enregistrement dans la base de données UE pour les systèmes d’IA à haut risque. Les équipes de conformité qui commencent les évaluations en T3 2026 devraient pouvoir les terminer d’ici T2 2027 — six mois avant le délai de décembre 2027. Ne traitez pas la fenêtre de 18 mois comme 18 mois de confort — traitez-la comme 12 mois de travail plus 6 mois de contingence.
3. Classifiez vos Systèmes d’IA par Rapport à l’Annexe III Maintenant — La Classification n’est pas Optionnelle
L’une des erreurs de conformité les plus courantes observées par les conseillers AI Act de l’UE en 2026 a été que des organisations supposent que leurs systèmes d’IA ne sont pas à haut risque sans effectuer une analyse de classification formelle. L’Annexe III couvre les utilisations de l’IA plus larges que la plupart des responsables de conformité ne l’assument initialement : si un système d’IA est utilisé pour le filtrage de CV ou la notation des candidats, pour la notation de crédit ou l’évaluation de la solvabilité, pour la vérification biométrique des individus, ou pour influencer l’accès aux services essentiels, il relève probablement de l’Annexe III indépendamment de la technologie sous-jacente. L’analyse de classification — cartographier chaque système d’IA dans le déploiement de votre organisation par rapport aux catégories et sous-catégories de l’Annexe III — est un prérequis à toute autre étape de conformité.
4. Cartographiez l’IA Intégrée dans les Produits Réglementés pour le Calendrier d’Août 2028
Les organisations opérant dans les secteurs de la santé, des machines industrielles, de l’automobile ou de l’électronique grand public où l’IA est intégrée dans des produits réglementés par l’UE devraient commencer le processus d’évaluation de conformité pour le délai d’août 2028. Les exigences de l’AI Act pour l’IA intégrée se superposent aux exigences sectorielles existantes sous MDR, IVDR ou le Règlement Machines, mais ne les remplacent pas. Les équipes de conformité dans ces secteurs ont besoin d’une approche à double voie. La décision technique critique est de savoir si votre composant IA est séparable du produit réglementé à des fins d’évaluation de conformité — cette détermination doit être résolue en 2026, pas en 2027.
5. Engagez-vous avec les Autorités de Surveillance Nationales sur la Participation aux Bacs à Sable
Le programme de bac à sable réglementaire de l’AI Act — en vertu de l’Article 57 — permet aux PME et startups de tester des systèmes d’IA innovants dans un environnement supervisé avant le déploiement complet sur le marché, avec des obligations de conformité assouplies pendant la période de test. Les autorités nationales compétentes en France (CNIL/CCNUM), en Allemagne (BfDI/DigiMinistry) et en Espagne (AESIA) ont des programmes de bac à sable ouverts à mi-2026. L’accord Omnibus ne modifie pas le cadre de bac à sable mais l’extension de 16 mois crée une opportunité de l’utiliser stratégiquement : entrez dans un bac à sable en T3 2026, testez votre système d’IA à haut risque, recevez un retour de surveillance, et sortez du bac à sable début 2027 avec une base de documentation de conformité pré-examinée.
Le Tableau d’Ensemble : Ce que l’Accord Omnibus Révèle sur la Dynamique de la Réglementation IA
L’accord Omnibus du 7 mai n’est pas simplement une extension de délai — c’est un point de données sur la façon dont le processus législatif de l’UE navigue entre ambition réglementaire et compétitivité industrielle. Le fait que le trilogue du 28 avril ait échoué sur la question spécifique de l’IA intégrée dans les produits réglementés — et qu’un accord ait été conclu neuf jours plus tard avec une obligation modifiée (mais non éliminée) pour ces systèmes — révèle un mécanisme réglementaire qui s’ajuste à la marge tout en préservant l’architecture centrale.
Pour les équipes de conformité et les décideurs en dehors de l’UE, l’accord Omnibus signale que l’AI Act est stable comme cadre réglementaire. Le délai de décembre 2027, comme le délai d’août 2026 qu’il a remplacé, est une ancre de conformité réelle — pas un point de départ pour un autre cycle de négociation. Les organisations qui ont utilisé l’effondrement du 28 avril comme raison de mettre en pause leurs programmes de conformité doivent reprendre immédiatement.
Questions Fréquemment Posées
Qu’est-ce que l’accord Omnibus IA de l’UE du 7 mai 2026 a réellement changé ?
L’accord du 7 mai a repoussé le délai de conformité pour les systèmes d’IA autonomes à haut risque (Annexe III) du 2 août 2026 au 2 décembre 2027 — une extension de 16 mois. L’IA intégrée dans des produits réglementés comme les dispositifs médicaux fait désormais face à un délai du 2 août 2028. Les obligations de filigrane en vertu de l’Article 50 restent à décembre 2026. Les obligations des modèles GPAI et les interdictions des pratiques prohibées ne sont pas affectées par l’accord.
Qu’est-ce que l’obligation de filigrane et quand s’applique-t-elle ?
L’Article 50 de l’EU AI Act exige que les systèmes d’IA générant des images, de l’audio et de la vidéo synthétiques implémentent un marquage lisible par machine indiquant que le contenu est généré par IA. Cette obligation s’applique à partir de décembre 2026. Elle couvre toute entreprise déployant des outils d’IA générative pour du contenu orienté client — images marketing, photos de produits, audio de service client, vidéos explicatives.
Quels systèmes d’IA sont classifiés à haut risque en vertu de l’Annexe III ?
Les applications à haut risque de l’Annexe III comprennent : l’IA pour l’identification et la catégorisation biométriques ; l’IA dans la gestion des infrastructures critiques ; l’IA dans l’éducation pour l’évaluation et la notation ; l’IA dans l’emploi pour le filtrage de CV, la notation ou la surveillance ; l’IA pour l’accès aux services privés et publics essentiels (notation de crédit, évaluation des risques d’assurance) ; l’IA dans les forces de l’ordre ; l’IA dans la migration et le contrôle aux frontières ; et l’IA dans l’administration de la justice.
Sources et lectures complémentaires
- Intelligence Artificielle : Le Conseil et le Parlement s’Accordent pour Simplifier et Rationaliser les Règles — Conseil européen
- EU AI Act Omnibus Deal — Modulos AI
- What the EU AI Omnibus Deal Changes for the AI Act and What Lies Ahead — Tech Policy Press
- EU Legislators Agree to Delay for High-Risk AI Rules — Hogan Lovells
- AI Act Omnibus: What Just Happened and What Comes Next — IAPP














