Ce qui change le 2 août 2026
Le règlement IA européen est entré en vigueur le 1er août 2024. Depuis, il suit un calendrier d’implémentation progressif. Les pratiques d’IA interdites ont été prohibées le 2 février 2025. Les obligations pour les modèles GPAI ont été appliquées à partir du 2 août 2025. Le jalon opérationnel majeur — l’applicabilité complète pour les systèmes d’IA à haut risque listés à l’Annexe III — arrive le 2 août 2026.
L’Annexe III définit huit catégories de systèmes d’IA à haut risque : biométrie et reconnaissance des émotions, IA pour la gestion des infrastructures critiques (énergie, eau, transport), IA utilisée dans les décisions d’accès à l’éducation et à la formation professionnelle, IA dans la gestion de l’emploi et de la main-d’œuvre, IA dans l’accès aux services essentiels (notation de crédit, souscription d’assurance, prestations sociales), applications de forces de l’ordre, systèmes de traitement de la migration et de l’asile, et IA assistant dans l’administration de la justice.
Les exigences de conformité qui s’activent le 2 août 2026 pour les systèmes de l’Annexe III comprennent quatre éléments obligatoires. Premièrement, une évaluation de conformité démontrant que le système répond aux exigences du règlement en matière de gestion des risques, de gouvernance des données, de transparence, de supervision humaine, d’exactitude et de robustesse. Pour la plupart des systèmes de l’Annexe III, c’est une auto-évaluation ; pour certaines catégories biométriques sensibles, elle nécessite une évaluation par un organisme notifié de l’UE. Deuxièmement, le marquage CE apposé sur la documentation du produit. Troisièmement, l’enregistrement dans la base de données IA de l’UE, un registre public géré par la Commission européenne. Quatrièmement, un plan de surveillance post-commercialisation établissant comment le fournisseur suivra les performances du système et mettra à jour l’évaluation de conformité lors de modifications importantes.
Le processus d’évaluation de conformité dans la pratique
L’évaluation de conformité est l’exercice de documentation le plus substantiel du processus. Elle n’est pas une liste de contrôle d’une page — c’est un dossier technique structuré démontrant la conformité sur six dimensions.
La documentation sur la gestion des risques doit montrer que le fournisseur a identifié, évalué et atténué les risques raisonnablement prévisibles du système tout au long de son cycle de vie — y compris les scénarios d’utilisation abusive connue.
La documentation sur la gouvernance des données doit démontrer que les jeux de données d’entraînement, de validation et de test ont fait l’objet de pratiques appropriées de gestion des données — notamment l’examen des biais, les vérifications de pertinence et la documentation des limitations connues.
La documentation technique doit fournir une description complète du système : objectif, processus de développement, méthodologie d’entraînement, architecture, exigences de calcul et formats de sortie. Cette documentation doit être conservée pendant 10 ans.
Les exigences de transparence mandatent que les utilisateurs de systèmes à haut risque reçoivent une divulgation des capacités, limitations et niveau approprié de supervision humaine requis. Pour les outils RH, cela signifie que les candidats doivent être informés qu’ils sont évalués par un système d’IA.
L’exigence de conception de supervision humaine demande que le système soit conçu pour que les personnes physiques puissent efficacement comprendre, surveiller et si nécessaire outrepasser l’utilisation.
Enfin, la documentation sur l’exactitude, la robustesse et la cybersécurité doit démontrer les résultats des tests de performance et la conformité avec les normes de cybersécurité de l’ENISA.
Publicité
Ce que les entreprises doivent faire avant le 2 août
1. Compléter votre inventaire des systèmes de l’Annexe III avant le 1er juin 2026
La condition préalable à toute action de conformité est un inventaire complet des systèmes d’IA relevant du champ d’application de l’Annexe III. Cela nécessite une revue transfonctionnelle impliquant la gestion des produits, le juridique et les équipes techniques — la portée de l’Annexe III est déterminée par le cas d’usage, pas par la technologie. Holland & Knight note que de nombreuses entreprises sous-estiment leur portée au titre de l’Annexe III parce qu’elles classifient les systèmes d’IA par leur fonction principale plutôt que par la décision qu’ils influencent. Construisez l’inventaire de manière conservative et appliquez le test de portée : la sortie de ce système influence-t-elle l’accès aux services, aux opportunités ou aux droits pour des personnes physiques ?
2. Prioriser l’évaluation par un tiers pour les systèmes biométriques et de forces de l’ordre
La plupart des systèmes de l’Annexe III sont éligibles aux procédures d’auto-évaluation de conformité. Cependant, l’article 43 du règlement IA exige une évaluation de conformité par un organisme notifié de l’UE pour : les systèmes d’identification biométrique à distance en temps réel dans les espaces publics, les systèmes de catégorisation biométrique et les systèmes de reconnaissance des émotions déployés dans des contextes d’emploi ou d’éducation. Si votre système appartient à l’une de ces sous-catégories, vous ne pouvez pas vous auto-certifier. La capacité des organismes notifiés est limitée : selon le tracker de conformité de Secure Privacy AI, moins de 15 organisations dans toute l’UE ont obtenu le statut d’organisme notifié pour les évaluations au titre du règlement IA. Les délais de réservation sont de 12 à 16 semaines.
3. Enregistrer les systèmes dans la base de données IA de l’UE avant le 2 août
La base de données IA de l’UE exige que les fournisseurs enregistrent chaque système d’IA à haut risque de l’Annexe III, incluant : le nom du système, la version, l’objectif prévu, la catégorie, le type d’utilisateur, le pays de déploiement et si l’évaluation de conformité a été auto-conduite ou effectuée par un organisme notifié. Toute modification significative d’un système enregistré susceptible d’affecter sa conformité déclenche une réévaluation et une mise à jour de l’enregistrement.
4. Intégrer la surveillance post-commercialisation dans votre pipeline MLOps
La surveillance post-commercialisation est l’obligation de conformité la moins bien comprise du paquet août 2026. Elle exige que les fournisseurs collectent proactivement des données sur les performances des systèmes d’IA à haut risque en déploiement et signalent les incidents graves aux autorités nationales de surveillance du marché dans des délais définis (15 jours pour les incidents ayant directement causé un décès ou un préjudice grave). Legal Nodes recommande d’intégrer la surveillance post-commercialisation dans les pipelines MLOps comme pratique standard — les outils existants (MLflow, Weights & Biases) fournissent déjà l’infrastructure technique mais ont besoin de connecteurs d’escalade formels d’incidents.
La perspective globale
Le 2 août 2026 n’est pas la fin de la complexité de conformité au règlement IA européen — c’est le premier point de contrôle opérationnel majeur. Pour les organisations hors UE déployant des systèmes d’IA accessibles aux résidents de l’UE — y compris les entreprises en Algérie, dans le Golfe et en Asie du Sud-Est — la portée extraterritoriale du règlement signifie que la conformité n’est pas facultative. Tout fournisseur ou déployeur dont les sorties de systèmes d’IA sont utilisées au sein de l’UE doit se conformer, quel que soit l’endroit où le système est développé ou hébergé.
Questions Fréquemment Posées
Quels systèmes d’IA sont considérés comme « à haut risque » au titre de l’Annexe III du règlement IA européen ?
L’Annexe III liste huit catégories : biométrie (y compris la reconnaissance des émotions), gestion des infrastructures critiques (énergie, eau, transport), décisions d’accès à l’éducation, gestion de l’emploi et de la main-d’œuvre (y compris le tri des CV et le suivi des performances), accès aux services essentiels (notation de crédit, assurance, prestations sociales), applications de forces de l’ordre, traitement de la migration et de l’asile, et administration de la justice. La portée est déterminée par si la sortie du système influence directement les décisions affectant l’accès des individus à des droits, des opportunités ou des services.
Quelle est la sanction pour avoir raté la date limite de conformité du 2 août 2026 ?
Le non-respect des exigences pour les systèmes d’IA à haut risque entraîne des amendes allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial, selon le montant le plus élevé. Pour les pratiques d’IA interdites (interdites depuis février 2025), le plafond est de 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Le règlement permet également aux autorités de surveillance du marché nationales d’exiger le retrait du marché de l’UE des systèmes non conformes.
Le règlement IA européen s’applique-t-il aux entreprises non-UE ?
Oui. Le règlement IA européen s’applique de manière extraterritoriale : tout fournisseur (développeur) ou déployeur (organisation utilisatrice) dont les sorties de systèmes d’IA sont utilisées au sein de l’UE doit se conformer, quel que soit le pays d’incorporation de l’organisation ou l’endroit d’hébergement du système. Cela signifie que les entreprises algériennes, les entreprises américaines et les sociétés technologiques asiatiques font toutes face aux mêmes obligations pour les produits IA orientés UE.
—
Sources et lectures complémentaires
- Mises à jour de conformité au règlement IA UE 2026 — Legal Nodes
- Les entreprises américaines face à la date limite du règlement IA UE — Holland & Knight
- Guide de conformité au règlement IA UE 2026 — Secure Privacy AI
- Calendrier d’implémentation du règlement IA européen — Artificial Intelligence Act EU
















