Le premier règlement complet pour le contenu généré par l’IA
La Commission européenne est à quelques semaines de finaliser le cadre réglementaire le plus détaillé jamais créé pour l’étiquetage du contenu généré par l’IA. Le Code de pratique sur le marquage et l’étiquetage du contenu généré par l’IA, élaboré en vertu de l’article 50 de la loi européenne sur l’IA, établit comment les fournisseurs et déployeurs de systèmes d’IA générative doivent signaler quand un contenu est produit ou modifié par une machine.
Le premier projet a été publié le 17 décembre 2025 par le Bureau européen de l’IA. Un deuxième projet révisé a suivi à la mi-mars 2026, intégrant les retours écrits de centaines de participants issus de l’industrie, du monde académique et de la société civile. Le code devrait être finalisé début juin 2026, avant la date d’entrée en vigueur du 2 août 2026, moment où les obligations de transparence de l’article 50 deviennent juridiquement contraignantes.
Bien que le code soit lui-même volontaire, les analystes juridiques de Bird & Bird et d’autres cabinets notent qu’il deviendra probablement la référence clé pour les régulateurs et les tribunaux lors de l’évaluation de la conformité. Les organisations qui l’ignorent le font à leurs risques et périls : les amendes pour violation de l’article 50 peuvent atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial annuel, le montant le plus élevé étant retenu.
Une approche multicouche du marquage de l’IA
Le code rejette l’idée qu’une solution technique unique puisse résoudre le problème d’authenticité du contenu. Il impose à la place une approche multicouche combinant trois niveaux de protection :
Les métadonnées sécurisées forment la première couche. Les fournisseurs doivent intégrer des informations de provenance directement dans les fichiers. Le projet fait référence aux standards ouverts comme le cadre C2PA (Coalition for Content Provenance and Authenticity), sans toutefois promouvoir un standard unique, privilégiant des approches ouvertes et interopérables qui réduisent la dépendance à un fournisseur.
Les tatouages numériques imperceptibles constituent la deuxième couche. Ces signaux lisibles par machine résistent aux transformations courantes telles que le redimensionnement, la compression et la conversion de format, rendant plus difficile la suppression de la provenance IA d’un contenu lors de sa circulation en ligne.
Les systèmes d’empreinte digitale et de journalisation servent de troisième couche de secours pour les scénarios où les métadonnées et les tatouages numériques s’avèrent insuffisants. Les fournisseurs peuvent maintenir des registres internes permettant la vérification rétrospective de l’origine du contenu.
Le deuxième projet a considérablement simplifié ces exigences, offrant plus de flexibilité aux signataires tout en maintenant le principe fondamental qu’aucun contenu ne doit reposer sur un point unique de défaillance pour le suivi de provenance.
Des règles sur les deepfakes plus strictes que toute réglementation antérieure
C’est dans ses exigences de divulgation spécifiques aux deepfakes par format que le code innove véritablement, allant bien au-delà des mandats d’étiquetage génériques.
Les deepfakes vidéo font l’objet du traitement le plus strict. Pour la vidéo en temps réel (comme les diffusions en direct ou les appels vidéo), les déployeurs doivent afficher une icône persistante et non intrusive de manière cohérente tout au long de l’exposition, combinée à un avertissement au début. Pour les vidéos deepfake préenregistrées, les règles permettent une combinaison d’un avertissement initial, d’une icône persistante et d’un générique de fin — garantissant la divulgation à chaque étape de la consommation.
Les deepfakes audio portent une obligation distincte : un avertissement audible en langage clair et naturel. Pour les clips de moins de 30 secondes, l’avertissement doit figurer au début. Pour les formats plus longs comme les podcasts, il doit être répété au début, à des étapes intermédiaires et à la fin. Lorsqu’un écran est disponible en accompagnement de l’audio, des indices visuels doivent compléter l’avertissement audible.
Le contenu multimodal — combinant texte, images, audio ou vidéo — doit afficher une icône visible sans nécessiter aucune interaction de l’utilisateur pour la découvrir. Le code pousse vers une icône interactive à l’échelle de l’UE pouvant fournir des informations supplémentaires sur les éléments spécifiques d’un contenu qui ont été générés ou modifiés par l’IA.
Une taxonomie commune distingue le contenu entièrement généré par l’IA du contenu assisté par l’IA, garantissant qu’une image légèrement retouchée ne soit pas traitée de la même manière qu’une fabrication synthétique complète.
Publicité
Cinq engagements pour les déployeurs
Le code structure les obligations des déployeurs autour de cinq engagements clés :
- Divulgation rapide — étiqueter le contenu généré par l’IA au plus tard lors de la première interaction ou exposition de la personne
- Placement d’une icône commune — appliquer une icône standardisée dans un emplacement visible et cohérent pour les deepfakes et le texte IA d’intérêt public (un acronyme provisoire « AI » en deux lettres est autorisé jusqu’au développement de l’icône officielle de l’UE)
- Signalement et correction — faciliter le signalement par des tiers des deepfakes mal étiquetés ou non étiquetés, et corriger les étiquettes sans retard excessif
- Coopération réglementaire — coopérer avec les autorités de surveillance du marché et les fournisseurs de très grandes plateformes en ligne (VLOP)
- Accessibilité — s’assurer que les icônes et logos respectent les exigences d’accessibilité de l’UE
Les fournisseurs, quant à eux, doivent s’assurer que les sorties de leurs systèmes sont marquées dans un format lisible par machine et que leurs solutions techniques de marquage sont efficaces, interopérables, robustes et fiables.
Le contenu créatif bénéficie d’un traitement plus souple
L’article 50 prévoit une exemption significative pour les œuvres artistiques, créatives, satiriques et fictionnelles. Lorsque le contenu fait manifestement partie d’une œuvre créative, seule une divulgation minimale et non intrusive est requise — conçue pour ne pas interférer avec l’intégrité, le plaisir ou l’exploitation normale de l’œuvre.
En pratique, cela signifie qu’une vidéo satirique clairement identifiée ou un film assisté par l’IA n’aurait pas besoin des icônes persistantes à l’écran imposées pour les deepfakes. Cependant, l’exemption exige tout de même une certaine divulgation pour protéger les droits des tiers, empêchant les créateurs d’utiliser la défense artistique pour distribuer des deepfakes trompeurs de personnes réelles sans aucune indication de manipulation.
La suite des événements
La période de retour sur le deuxième projet s’est close le 30 mars 2026. La finalisation est attendue début juin, laissant aux organisations environ deux mois avant la date d’entrée en vigueur du 2 août. Les entreprises exploitant des systèmes d’IA qui génèrent ou manipulent du texte, des images, de l’audio ou du contenu vidéo sur le marché de l’UE devraient cartographier leurs lacunes de conformité dès maintenant — en particulier autour de l’intégration de métadonnées, des flux de travail d’étiquetage des déployeurs et des protocoles de divulgation des deepfakes.
Le code n’existe pas de manière isolée. Il complète le Code de pratique pour l’IA à usage général (qui traite des obligations au niveau du modèle) et s’aligne sur les exigences plus larges du Digital Services Act pour les très grandes plateformes en ligne. Ensemble, ces cadres créent une architecture réglementaire en couches qui traite la transparence du contenu IA comme un défi systémique plutôt qu’une correction ponctuelle.
Questions Fréquemment Posées
Qu’est-ce que le Code de pratique de l’UE sur l’étiquetage du contenu IA ?
Le Code de pratique est un cadre volontaire élaboré en vertu de l’article 50 de la loi européenne sur l’IA, fournissant des orientations pratiques pour le marquage et l’étiquetage du contenu généré par l’IA. Il établit une approche multicouche combinant icônes visibles, métadonnées lisibles par machine, tatouages numériques imperceptibles et systèmes de journalisation. Bien que volontaire, il devrait servir de référence principale de conformité lorsque les obligations de transparence contraignantes prendront effet le 2 août 2026, avec des amendes pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial annuel.
En quoi les règles spécifiques aux deepfakes diffèrent-elles pour l’audio et la vidéo ?
Les deepfakes vidéo exigent une icône visible persistante tout au long de la lecture, combinée à des avertissements d’ouverture et un générique de fin. Les deepfakes audio exigent un avertissement audible parlé en langage clair au début du contenu, et pour les formats de plus de 30 secondes, l’avertissement doit être répété à des étapes intermédiaires et à la fin. Les deux formats doivent également porter un marquage de métadonnées lisible par machine, mais les méthodes de divulgation à l’utilisateur sont adaptées aux modes de consommation de chaque média.
Le Code de pratique de l’UE affecte-t-il les entreprises hors d’Europe ?
Oui. Les obligations de l’article 50 s’appliquent à tout fournisseur ou déployeur dont le système d’IA génère ou manipule du contenu atteignant des personnes physiques au sein de l’UE, quel que soit le siège de l’entreprise. Cela signifie que les entreprises algériennes, américaines ou asiatiques servant des utilisateurs de l’UE ou distribuant du contenu généré par l’IA sur le marché européen doivent se conformer aux exigences de marquage et d’étiquetage sous peine d’amendes pouvant atteindre 15 millions d’euros ou 3 % du chiffre d’affaires mondial.
Sources et lectures complémentaires
- Commission publishes first draft of Code of Practice on marking and labelling of AI-generated content — European Commission
- Commission publishes second draft of Code of Practice — European Commission
- What the EU’s New AI Code of Practice Means for Labeling Deepfakes — TechPolicy.Press
- Article 50: Transparency Obligations for Providers and Deployers — EU AI Act
- EU AI Act Code of Practice on marking and labelling — European Commission
- Taking the EU AI Act to Practice: Understanding the Draft Transparency Code — Bird & Bird
- Article 99: Penalties — EU AI Act
















