Pourquoi l’Échec du 28 Avril Est Plus Significatif qu’Il n’y Paraît
Le package Omnibus IA, proposé par la Commission européenne le 19 novembre 2025, visait à reporter les obligations de conformité du Règlement IA pour les systèmes à haut risque — initialement fixées au 2 août 2026 — au 2 décembre 2027 pour les systèmes autonomes et au 2 août 2028 pour l’IA intégrée dans des produits réglementés. Pour la plupart des entreprises, ce report proposé avait fonctionné comme une période de grâce non officielle : les préparatifs de conformité avançaient à un rythme mesuré, dans l’hypothèse que l’extension serait adoptée avant l’échéance d’août.
Le trilogue du 28 avril était la deuxième négociation politique entre le Parlement européen, le Conseil et la Commission. Il a échoué. Le point de blocage spécifique était de savoir si les systèmes d’IA intégrés dans des produits réglementés — dispositifs médicaux, jouets, machines industrielles, véhicules connectés — devaient être exemptés des exigences du Règlement IA au motif qu’ils relèvent déjà de réglementations sectorielles de sécurité. Le Parlement européen et les principaux groupes industriels ont plaidé pour ces exemptions ; le Conseil s’y est opposé, y voyant une déréglementation plutôt qu’une simplification.
Une troisième réunion était prévue mi-mai. Le problème critique : même si cette réunion aboutit à un accord sur le libellé des exemptions, le processus législatif formel exige une publication au Journal officiel de l’UE et un délai minimum avant l’entrée en vigueur des nouvelles dispositions. Le consensus des experts juridiques, tel qu’exprimé par le cabinet DLA Piper à Bruxelles en avril 2026, est que l’adoption formelle avant le 2 août est « impraticable ». Le Règlement IA original, tel que rédigé, devient applicable le 2 août 2026 pour les systèmes à haut risque de l’Annexe III — sans report Omnibus en vigueur.
Le propre discours de la Commission européenne dans ses orientations d’avril 2026 l’a confirmé : elle a demandé aux organisations de « poursuivre les préparatifs de conformité conformément à l’échéance existante du 2 août 2026, sans attendre le report proposé. »
Ce que l’Annexe III Exige Concrètement avant le 2 Août
La classification à haut risque de l’Annexe III couvre huit catégories dans lesquelles l’IA est utilisée pour des décisions affectant significativement des individus. Pour les entreprises du secteur privé, les deux catégories les plus larges sont l’IA dans l’emploi et l’IA dans les services financiers.
IA dans l’emploi (Annexe III, Catégorie 4) : Tout système d’IA utilisé dans le recrutement et la sélection de candidats, le tri de CV, l’évaluation des performances, l’attribution ou la surveillance des tâches, les décisions de promotion ou de licenciement, et la surveillance des travailleurs — dès lors que ces résultats influencent des décisions d’emploi — est à haut risque. Cela inclut les systèmes automatisés de suivi des candidatures, l’évaluation d’entretiens assistée par IA, la gestion prédictive des performances et les plateformes d’analyse de la main-d’œuvre.
IA dans les services financiers (Annexe III, Catégorie 5) : Le scoring de crédit, l’évaluation des risques d’assurance et la détermination de l’éligibilité aux prestations sont à haut risque. Un modèle d’IA bancaire évaluant les demandes de prêt est à haut risque. Un modèle de tarification télématique d’assurance est à haut risque s’il affecte les décisions d’éligibilité à la couverture.
Biométrie (Annexe III, Catégorie 1) : Tout système d’IA utilisant l’identification biométrique ou la reconnaissance des émotions, en temps réel ou a posteriori, est à haut risque (avec d’étroites exemptions). Cela inclut la reconnaissance faciale dans le contrôle d’accès des bâtiments d’entreprise, les outils d’inférence émotionnelle dans le service client et les systèmes de vérification d’identité.
Pour chaque système à haut risque, les entreprises doivent avoir complété — avant le 2 août 2026 :
- Système de gestion des risques : Procédures documentées d’identification, d’estimation, d’évaluation et d’atténuation des risques sur l’ensemble du cycle de vie
- Documentation technique : Spécifications complètes du système couvrant la conception, les données d’entraînement, la méthodologie de test et la surveillance post-déploiement
- Journalisation automatique : Journaux d’opération immuables d’au moins 6 mois permettant la reconstruction des incidents
- Protocole de supervision humaine : Personnel nommé ayant l’autorité de surveiller, d’intervenir et de substituer à l’action du système d’IA
- Évaluation de conformité : Auto-évaluation pour la plupart des catégories ; tierce partie obligatoire pour les systèmes d’identification biométrique
- Enregistrement dans la base de données UE : Enregistrement public préalable au déploiement via la base de données IA équivalente à EUDAMED
Publicité
Une Feuille de Route de Conformité sur 12 Semaines pour les Équipes Entreprises
1. Réaliser l’Audit d’Inventaire Annexe III Maintenant — Pas en Juillet
Commencez par un inventaire complet de tous les systèmes d’IA que votre organisation déploie ou fournit à des tiers. Mappez chacun d’eux sur les huit catégories de l’Annexe III. De nombreuses organisations sous-estiment considérablement leur exposition à l’Annexe III parce que l’IA est intégrée dans des logiciels qu’elles n’ont pas construits elles-mêmes — une plateforme RH tierce avec sélection par IA, un core bancaire avec scoring de crédit IA, un système de gestion de bâtiment avec analyse comportementale. Cartographiez chaque système, y compris les outils tiers où vous êtes le déployeur.
Cet inventaire n’est pas le travail d’une seule personne. Il nécessite la contribution des RH (IA d’emploi), de la Finance et du Crédit (IA de services financiers), des Installations (biométrie), de la Sécurité informatique (IA dans les outils de surveillance) et du Juridique. De nombreuses organisations découvrent leurs trois à cinq premiers systèmes à haut risque lors de cet audit, qu’elles n’avaient pas identifiés auparavant. Les orientations de l’IAPP d’avril 2026 suggèrent que cet inventaire prend deux semaines pour les organisations de taille moyenne et quatre à six semaines pour les grandes multinationales.
2. Distinguer les Obligations du Fournisseur de Celles du Déployeur
Le Règlement IA crée des obligations asymétriques selon que vous êtes le fournisseur (qui a conçu le système d’IA) ou le déployeur (qui utilise un système d’IA tiers). Les fournisseurs portent la charge la plus lourde — ils doivent produire la documentation technique, les évaluations de conformité et s’enregistrer dans la base de données UE avant de mettre le système sur le marché. Les déployeurs doivent suivre les instructions du fournisseur, désigner du personnel de supervision qualifié, surveiller les dérives de performance et signaler les incidents graves.
Pour la plupart des grandes entreprises, les deux rôles s’appliquent simultanément : vous êtes déployeur pour les outils tiers et fournisseur pour les systèmes d’IA développés en interne. Ne supposez pas que l’utilisation du produit d’IA d’un fournisseur signifie que ce dernier assume toute la responsabilité de conformité. Si vous personnalisez, affinez ou modifiez un système d’IA tiers d’une manière qui change sa finalité prévue ou son profil de risque, vous devenez fournisseur de ce système en vertu de l’article 25.
3. Prioriser l’Écart de Documentation — C’est le Mode d’Échec le Plus Courant
Selon l’analyse de ComplianceHub publiée le 25 avril 2026, les trois éléments de conformité les plus fréquemment en retard parmi les entreprises qui se préparent pour le 2 août sont : la documentation technique (notamment la provenance des données d’entraînement et la méthodologie de test), l’infrastructure de journalisation automatique et les protocoles de supervision humaine. Les systèmes de gestion des risques et les évaluations de conformité sont plus avancés car ils sont analogues aux cadres ISO 27001 et ISO 31000 que de nombreuses organisations appliquent déjà.
Si vous devez prioriser : la documentation et la journalisation sont les éléments les plus rapides à corriger. La documentation technique d’un système bien compris peut être produite en quatre à six semaines avec des ressources internes adéquates ou un conseil externe. La journalisation automatique est une tâche d’ingénierie qui prend deux à quatre semaines si l’infrastructure capture déjà les données pertinentes. Les protocoles de supervision humaine nécessitent un alignement RH et juridique mais peuvent être rédigés et approuvés en trois à quatre semaines.
Le Scénario d’Échec : Ce que Signifie le 2 Août Sans Préparation
Pour les organisations qui n’ont pas complété les évaluations de conformité et l’enregistrement dans la base de données UE avant le 2 août, le mécanisme d’application du Règlement IA s’active immédiatement. Il n’y a pas de période de grâce, pas de réduction pour divulgation volontaire, et pas de seuil minimum avant que les autorités nationales compétentes puissent ouvrir une enquête.
La structure des sanctions est la suivante :
- Pratiques d’IA interdites (Annexe I) : Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial
- Violations IA à haut risque (non-conformité Annexe III) : Jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial
- Informations incorrectes ou trompeuses aux autorités : Jusqu’à 7,5 millions d’euros ou 1,5 %
Le scénario le plus risqué pour les entreprises : déployer un système d’IA de sélection de l’emploi qui n’a pas complété l’évaluation de conformité, avec une documentation technique incomplète et sans journalisation immuable. Cette combinaison — qui décrit de nombreux systèmes de suivi des candidatures actuellement déployés — expose l’organisation à des pénalités de 15 millions d’euros ou 3 % à partir du 3 août 2026.
Le package Omnibus, s’il est finalement adopté, restructurerait rétroactivement ces obligations. Mais une protection rétroactive après que l’application a commencé n’est pas garantie, et les délais d’application varient selon les États membres — l’Allemagne, la France et les Pays-Bas ont indiqué qu’ils activeront leurs autorités de surveillance IA immédiatement au déclencheur du 2 août.
Questions Fréquemment Posées
Le Règlement IA UE s’applique-t-il aux entreprises algériennes qui vendent des logiciels d’IA à des clients européens ?
Oui. Le Règlement IA s’applique de manière extraterritoriale lorsque des systèmes d’IA sont mis sur le marché de l’UE ou lorsque leurs résultats affectent des résidents de l’UE, quel que soit le lieu d’incorporation du fournisseur. Une entreprise SaaS algérienne qui vend un outil de recrutement alimenté par IA à un département RH français est un « fournisseur » au sens du Règlement IA si le système relève des catégories de l’Annexe III. Elle doit produire la documentation technique, compléter l’évaluation de conformité et s’enregistrer dans la base de données IA UE avant que le client français puisse le déployer légalement.
Que se passe-t-il si l’Omnibus IA UE est adopté après le 2 août 2026 — protège-t-il rétroactivement les entreprises non conformes ?
La protection rétroactive n’est pas garantie et dépend des dispositions transitoires de l’Omnibus, encore en cours de négociation. Si des enquêtes ont déjà commencé au moment de l’adoption formelle de l’Omnibus, les organisations sous enquête active ne bénéficieront probablement pas d’une protection rétrospective. La position juridiquement sûre, en mai 2026, est de traiter le 2 août comme l’échéance réelle de conformité.
Quelle est la différence entre les systèmes à haut risque de l’Annexe III et les pratiques d’IA interdites de l’Annexe I ?
L’Annexe I (pratiques interdites) couvre l’IA qui présente des risques inacceptables quelle que soit son utilisation : la notation sociale de masse par les autorités publiques, l’identification biométrique à distance en temps réel par les forces de l’ordre dans les espaces publics (avec d’étroites exceptions), et les systèmes d’IA exploitant des vulnérabilités psychologiques. Ces pratiques sont purement et simplement interdites. L’Annexe III (haut risque) couvre l’IA dans des domaines spécifiques à enjeux élevés — emploi, éducation, biométrie, infrastructures critiques, services financiers, application de la loi — qui est autorisée mais soumise à des exigences strictes : documentation, supervision, évaluation de conformité et enregistrement. L’amende maximale pour violations de l’Annexe III (15 M€ ou 3 %) est inférieure à celle de l’Annexe I (35 M€ ou 7 %) mais reste significative.
—
Sources et lectures complémentaires
- EU AI Act Omnibus : ce qui vient de se passer et ce qui vient ensuite — IAPP
- L’Omnibus IA : report proposé des obligations IA à haut risque — DLA Piper
- Règlement IA UE échéance août 2026 : Guide de conformité Annexe III — ComplianceHub
- L’accord sur l’Omnibus IA UE échoue aux négociations d’avril 2026 — The Next Web
- Texte officiel du Règlement IA (Règlement 2024/1689) — EUR-Lex
















