Ce qui a Changé le 7 Mai 2026
L’accord provisoire conclu entre le Parlement européen et le Conseil le 7 mai 2026 — formellement appelé Omnibus Numérique sur l’IA — n’est pas un remplacement du règlement IA de l’UE mais un paquet d’amendements ciblés qui redessine des obligations spécifiques au sein de la loi existante. Selon l’analyse NicFab de l’accord du 7 mai, l’accord porte sur six domaines distincts : les dates d’application, l’évaluation de la conformité à l’Annexe I, la définition du composant de sécurité, l’extension de la détection des biais, l’allégement pour les PME et petites capitalisation moyennes (PMC), et les pouvoirs d’application pour les GPAI.
Les ajouts les plus significatifs sont : une interdiction tripartite des systèmes d’IA générant des images sexuelles intimes de personnes identifiables sans consentement ; une extension des pouvoirs de supervision du Bureau de l’IA pour couvrir les systèmes d’IA construits sur des modèles GPAI ; et un report de la date limite pour les systèmes Annexe III à haut risque du 2024 au 2 décembre 2027.
L’accord est provisoire — l’adoption formelle est ciblée pour être complétée avant le 2 août 2026, date à laquelle les obligations GPAI du règlement IA original prennent plein effet.
L’Interdiction des Deepfakes et Nudifieurs : Ce qu’Elle Couvre et Ce qu’Elle Ne Couvre Pas
La nouvelle interdiction cible les systèmes d’IA qui «altèrent, manipulent ou génèrent artificiellement des images ou vidéos réalistes pour représenter des activités sexuellement explicites ou les parties intimes d’une personne identifiable» sans consentement. L’interdiction s’applique à trois niveaux : les fournisseurs ne peuvent pas placer ces systèmes sur le marché, les déployeurs ne peuvent pas les utiliser pour générer du contenu interdit, et les systèmes eux-mêmes sont catégorisés comme à risque inacceptable. La date limite de conformité est le 2 décembre 2026.
L’analyse Slaughter and May de la position antérieure du Parlement note que l’interdiction couvre les «nudifieurs» — outils spécifiquement conçus pour générer des images intimes non consensuelles — ainsi que les matériels d’abus sexuel d’enfants générés par IA. Ce que l’interdiction ne couvre pas : les applications légitimes de génération d’images qui pourraient théoriquement produire du contenu intime mais ne sont pas spécifiquement conçues à cette fin (générateurs d’images à usage général avec filtrage de contenu).
L’interdiction comble une lacune dans le cadre original de l’Article 5, qui s’appuyait précédemment sur l’application fragmentée via le RGPD, le droit pénal et le DSA. La nouvelle disposition crée une interdiction unique au niveau du modèle avec des pénalités du règlement IA — jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial.
Responsabilité GPAI : Pouvoirs Étendus du Bureau de l’IA
L’accord Omnibus étend les pouvoirs de supervision du Bureau de l’IA au-delà des fournisseurs de modèles GPAI pour couvrir les fournisseurs de systèmes d’IA qui construisent sur des modèles GPAI. Cela est architecturalement significatif : sous le règlement IA original, une entreprise qui construit une application de service client sur GPT-4 ou Claude est un déployeur de système d’IA. L’ajustement Omnibus signifie que le Bureau de l’IA peut désormais superviser les systèmes d’IA construits sur des modèles GPAI lorsque ces systèmes présentent des risques systémiques.
Selon le tracker d’implémentation du règlement IA de l’UE, les fournisseurs GPAI sont soumis à des obligations de base depuis le 2 août 2025 : maintenir un dossier technique privé, publier un résumé des droits d’auteur, fournir des cartes de modèles aux clients, et démontrer la conformité aux droits d’auteur de l’UE. L’extension Omnibus ajoute la supervision de la couche applicative construite sur ces modèles.
Publicité
Quatre Signaux de Conformité pour les Équipes IA d’Entreprise
Signal 1 : Le 2 Décembre 2026 est la Date Limite Ferme pour Deux Obligations Distinctes
L’accord Omnibus crée deux dates limites distinctes au 2 décembre 2026 nécessitant des actions de conformité différentes. L’interdiction des nudifieurs/NCII nécessite que les fournisseurs de systèmes interdits les retirent du marché UE d’ici cette date. L’exigence de filigranage des contenus générés par l’IA s’applique également à partir du 2 décembre 2026.
Signal 2 : L’Extension de la Date Limite Annexe III Change votre Calendrier à Haut Risque
L’explication du règlement IA de l’UE par Decode the Future documente que l’Annexe III couvre les systèmes à haut risque en biométrie, application des lois, éducation et emploi. L’extension du 2024 au 2 décembre 2027 fournit une année supplémentaire pour la conformité — à utiliser pour construire l’infrastructure de documentation (dossiers techniques, évaluations des risques, protocoles de surveillance humaine) plutôt que de traiter 2027 comme une date limite lointaine.
Signal 3 : L’Extension de la Détection des Biais Affecte Tous les Fournisseurs et Déployeurs
L’accord Omnibus étend les obligations de détection des biais — précédemment limitées aux systèmes d’IA à haut risque — à tous les fournisseurs et déployeurs d’IA sous un standard de «stricte nécessité». Cela signifie que toute entreprise utilisant des outils d’IA qui traitent des données personnelles doit désormais évaluer si ces outils introduisent des biais discriminatoires, même si le système n’est pas classifié comme à haut risque.
Signal 4 : L’Allégement PMC Réduit la Charge de Conformité pour les Équipes Enterprise de Taille Moyenne
Les dispositions d’allégement pour les PME du règlement IA original ont été étendues aux «petites capitalisations moyennes» (PMC). Si votre organisation tombe dans cette catégorie (typiquement 250-1 500 employés), vous pourrez peut-être vous qualifier pour le parcours de conformité PMC étendu, qui parallèle l’approche de conformité graduée émergeant dans les lois étatiques américaines sur l’IA.
Ce que les Équipes IA d’Entreprise Doivent Faire Avant Décembre 2026
1. Auditer Votre Portefeuille de Produits IA Face aux Trois Obligations de Décembre 2026
La date limite du 2 décembre 2026 est un point de contrôle de conformité pour deux ensembles distincts d’obligations. Premièrement : un produit de votre portefeuille IA génère-t-il des images intimes non consensuelles ou est-il spécifiquement conçu à cette fin ? Si oui, il doit être retiré du marché UE avant le 2 décembre 2026, sous peine de sanctions allant jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires annuel mondial. Deuxièmement : votre infrastructure de génération de contenu IA produit-elle des filigranes de provenance détectables sur les images, l’audio et la vidéo ? L’analyse NicFab de l’accord provisoire du 7 mai confirme que le filigranage est une obligation distincte au 2 décembre 2026 — non regroupée avec l’interdiction des nudifieurs. Traitez-les comme deux flux de conformité séparés.
2. Évaluer les Systèmes Basés sur GPAI pour leur Exposition aux Risques Systémiques Sous les Pouvoirs Étendus du Bureau de l’IA
Si votre organisation construit des applications IA sur des modèles GPAI — GPT-4, Claude, Gemini ou Mistral — le Bureau de l’IA dispose désormais d’une autorité de supervision étendue sur votre système, et pas seulement sur le fournisseur du modèle. Le seuil d’intervention du Bureau de l’IA est le risque systémique : les outils à haut volume utilisés pour les décisions RH, le scoring de crédit, la détection de fraude ou les services au secteur public présentent la plus grande exposition. Les architectes IA d’entreprise doivent documenter l’échelle, le cas d’usage et le profil de risque de chaque application basée sur GPAI et conserver cette documentation. Les systèmes non documentés sont les plus exposés lors d’un audit réglementaire.
3. Étendre les Audits de Détection des Biais à Tous les Outils IA, Pas Seulement aux Systèmes à Haut Risque
L’extension de la détection des biais de l’accord Omnibus s’applique à tous les fournisseurs et déployeurs d’IA sous un standard de « stricte nécessité » — pas seulement à ceux ayant des classifications de systèmes à haut risque. Cela crée une nouvelle base de conformité : chaque entreprise utilisant des outils IA qui traitent des données personnelles doit évaluer si ces outils introduisent des biais discriminatoires, même si le système était précédemment hors du cadre à haut risque. Le standard de « stricte nécessité » est proportionné — l’obligation est d’évaluer et de documenter, pas de construire des programmes de tests complets pour chaque outil. Commencez par les systèmes IA qui touchent le plus grand nombre d’utilisateurs ou les décisions les plus importantes, et constituez une piste documentaire d’évaluation des biais.
Ce qui Vient Ensuite dans le Calendrier Réglementaire IA de l’UE
L’accord Omnibus est provisoire — l’adoption formelle par le Parlement et le Conseil est ciblée avant le 2 août 2026. Après l’adoption formelle, le calendrier de conformité s’articule comme suit : 2 décembre 2026 (interdiction nudifieurs + filigranage) ; 2 décembre 2027 (systèmes Annexe III à haut risque) ; 2 août 2028 (composants de sécurité Annexe I dans les produits réglementés). Les responsables de conformité d’entreprise doivent cartographier les inventaires de systèmes d’IA internes par rapport à ce calendrier maintenant.
Questions Fréquemment Posées
L’interdiction des deepfakes de l’Omnibus IA de l’UE s’applique-t-elle aux générateurs d’images à usage général comme DALL-E ou Midjourney ?
Non. L’interdiction cible les systèmes d’IA spécifiquement conçus pour générer des images intimes non consensuelles (NCII) — y compris les nudifieurs et les matériels d’abus sexuel d’enfants générés par IA. Les générateurs d’images à usage général qui peuvent théoriquement produire du contenu intime mais ne sont pas spécifiquement conçus à cette fin, et qui implémentent un filtrage de contenu, ne sont pas couverts par l’interdiction au niveau du modèle. Le facteur discriminant est de savoir si la conception ou l’usage principal du système est la génération de NCII.
Que signifie l’extension des pouvoirs du Bureau de l’IA sur les systèmes construits sur GPAI pour les développeurs d’applications d’entreprise ?
Cela signifie que les entreprises construisant des applications d’IA sur des modèles GPAI (GPT-4, Claude, Gemini, Mistral) font face à une supervision potentielle du Bureau de l’IA si leurs applications présentent des risques systémiques à grande échelle. Les équipes enterprise construisant des outils d’IA à haut volume pour les décisions RH, le scoring de crédit, la détection de fraude ou les services au secteur public doivent évaluer si l’échelle et le cas d’usage de leur système créent une exposition aux risques systémiques — les orientations publiées du Bureau de l’IA sur les critères de risque systémique sont le point de départ pour cette évaluation.
Comment l’extension de la détection des biais change-t-elle les exigences de conformité pour les outils d’IA qui n’étaient pas précédemment à haut risque ?
L’accord Omnibus étend les obligations de détection des biais à tous les fournisseurs et déployeurs d’IA sous un standard de «stricte nécessité» — précédemment, seuls les fournisseurs de systèmes à haut risque faisaient face à des exigences formelles d’évaluation des biais. Pour les entreprises utilisant des outils d’IA dans des contextes non à haut risque (génération de contenu, support client, outils de productivité interne), cela crée une nouvelle obligation de base : évaluer si l’outil introduit des biais discriminatoires, documenter la méthodologie d’évaluation et mettre en œuvre des mesures d’atténuation là où des biais sont trouvés.
—
Sources et lectures complémentaires
- Omnibus Numérique sur l’IA : l’Accord Provisoire du 7 mai 2026 — NicFab Blog
- Mise à Jour Omnibus IA : Position du Parlement incluant Interdiction Nudification — Slaughter and May
- Calendrier d’Implémentation du Règlement IA de l’UE — Artificial Intelligence Act EU
- Règlement IA de l’UE Expliqué : 7 Niveaux de Risque, Pénalités et Calendrier 2026 — Decode the Future
- Ce que l’Accord Omnibus IA de l’UE Change pour le Règlement IA — Tech Policy Press
- Les Législateurs UE S’accordent sur les Amendements au Règlement IA incluant l’Interdiction des Deepfakes Sexuels — MLex















