Une nouvelle référence pour la divulgation de l’IA générative
Signé par le gouverneur Gavin Newsom le 19 septembre 2024, le California AI Transparency Act (SB 942) est la loi étatique la plus marquante des États-Unis sur l’IA générative. Elle place la barre très haut en matière de provenance du contenu, exigeant des grands fournisseurs d’IA générative qu’ils étiquettent les images, vidéos et fichiers audio synthétiques, intègrent des métadonnées cachées et fournissent un outil public gratuit permettant à quiconque de vérifier si un fichier donné a été généré par une machine.
La date d’entrée en vigueur initiale était le 1er janvier 2026. Le 13 octobre 2025, le gouverneur Newsom a signé AB 853, un ensemble d’amendements qui a repoussé l’échéance de conformité au 2 août 2026. Ces sept mois supplémentaires offrent aux laboratoires d’IA, aux plateformes sociales et aux licenciés en aval le temps de revoir leurs pipelines produit, mais ils ont aussi relevé le plafond des obligations, en ajoutant de nouveaux devoirs pour les « grandes plateformes en ligne » et les fabricants de « dispositifs de capture ».
Pour toute équipe livrant des fonctionnalités génératives à des utilisateurs américains, SB 942 est désormais le modèle de fait que d’autres États (Colorado, Illinois, Texas) sont en train de copier. Même les équipes hors des États-Unis devraient le lire attentivement : le seuil californien d’un million d’utilisateurs concerne la plupart des modèles d’image, de vidéo et d’audio déployés à l’échelle mondiale.
Qui est un « fournisseur couvert » ?
La loi s’applique aux « fournisseurs couverts », définis comme toute personne ou entité qui crée, code ou produit autrement un système d’IA générative comptant plus de 1 000 000 de visiteurs ou d’utilisateurs mensuels et accessible publiquement en Californie. Le seuil est suffisamment bas pour englober tous les modèles d’image et de vidéo connus d’OpenAI, Google, Meta, Microsoft, Adobe, Stability AI, Midjourney et Runway, ainsi que les plateformes émergentes à portée mondiale.
Un détail important sur la portée : SB 942 ne couvre que la génération d’images, de vidéos et d’audio. Les modèles purement textuels sont hors champ — pour l’instant. Le texte-à-image, le texte-à-vidéo, le clonage vocal, la génération musicale et les sorties multimodales combinées entrent tous dans le périmètre.
Trois obligations centrales
Les fournisseurs couverts doivent satisfaire trois exigences distinctes d’ici au 2 août 2026 :
1. Divulgation manifeste (visible). Les utilisateurs générant du contenu synthétique doivent se voir offrir l’option d’inclure un marqueur clair, visible et permanent à l’écran identifiant le contenu comme généré par IA. Le marqueur doit être adapté au support — incrustation pour la vidéo, filigrane visible sur les images, ou avertissement vocal sur l’audio — et conçu de sorte qu’une personne raisonnable ne puisse le manquer.
2. Divulgation latente (cachée). Chaque sortie doit comporter des métadonnées de provenance intégrées contenant le nom du fournisseur, l’identifiant du système d’IA, la date et l’heure de création, et un identifiant de contenu unique. La divulgation cachée doit être présente que l’utilisateur active ou non la divulgation visible, et elle doit être extrêmement difficile à supprimer. La plupart des fournisseurs convergent vers les manifestes C2PA (Coalition for Content Provenance and Authenticity) comme implémentation de fait.
3. Outil public et gratuit de détection d’IA. Les fournisseurs couverts doivent publier un outil gratuit, accessible publiquement, permettant à quiconque de téléverser une image, vidéo ou fichier audio et d’obtenir un verdict sur la provenance machine. L’outil doit prendre en charge un accès API en lot pour les chercheurs et journalistes.
Licences et obligations envers les tiers
AB 853 a sérieusement renforcé le régime de licences. Si un fournisseur couvert sait qu’un licencié tiers a modifié son modèle pour supprimer les capacités de divulgation, il doit révoquer la licence dans les 96 heures suivant la découverte de l’altération. Cette disposition transforme chaque contrat d’entreprise en un point de contrôle de conformité : les fournisseurs sont désormais responsables de ce que leurs clients en aval font des poids du modèle.
Les amendements ont également intégré les « grandes plateformes en ligne » — essentiellement les grands réseaux sociaux et hébergeurs de contenu — créant des devoirs de préservation des métadonnées de provenance lorsque les utilisateurs téléchargent des médias générés par IA. Attendez-vous à des négociations animées au premier semestre 2026 sur la manière dont Meta, TikTok, YouTube et X géreront le retrait des divulgations latentes au moment du téléversement.
Publicité
Sanctions et application
Le régime d’application est agressif. Les violations sont civiles, non pénales, mais elles s’accumulent quotidiennement : jusqu’à 5 000 $ par violation et par jour, plus les frais d’avocat. Le procureur général de Californie, ainsi que les avocats des villes et comtés, peuvent intenter des actions. Un seul produit non conforme livré pendant 90 jours représente une exposition théorique de 450 000 $ avant frais.
Les calculs de volume comptent davantage. Un grand générateur d’images grand public produisant des millions de contenus sans divulgation latente appropriée pourrait, en principe, encourir des sanctions calculées par violation plutôt que par jour — un risque qui pousse les équipes de conformité à modéliser des scénarios catastrophes à hauteur de dizaines de millions.
Turbulences fédérales
Le 11 décembre 2025, le président Trump a signé un décret ciblant les lois étatiques sur l’IA, arguant qu’elles créent un paysage de conformité fragmenté qui nuit à la compétitivité américaine. Les analystes juridiques s’attendent à ce qu’un recours en préemption parvienne à la cour fédérale en 2026, mais la plupart conseillent à leurs clients de considérer SB 942 comme exécutoire jusqu’à décision contraire d’un tribunal. La Californie a constamment défendu son autorité de régulation des produits technologiques, et le bureau du procureur général a signalé sa volonté de défendre la loi.
Une feuille de route pratique de conformité
Les équipes qui seront concernées au 2 août devraient travailler ces étapes dès maintenant :
- Inventorier chaque système génératif public et confirmer si chacun franchit le seuil californien d’un million d’utilisateurs mensuels.
- Adopter une norme de provenance (C2PA est le consensus de l’industrie) et intégrer l’écriture de manifestes dans le pipeline d’inférence pour chaque sortie image, vidéo ou audio.
- Construire ou licencier un outil de détection d’IA et l’exposer sur une URL publique avec une API. Les pionniers publient des implémentations de référence ; les laboratoires plus petits peuvent s’associer plutôt que tout construire.
- Auditer les contrats de licence avec les clients entreprise, en ajoutant des clauses contractuelles exigeant la préservation de la divulgation et activant le droit de révocation à 96 heures.
- Coordonner avec les grandes plateformes en ligne sur les flux de préservation des métadonnées avant que les gestionnaires de téléversement ne suppriment silencieusement les manifestes C2PA intégrés.
- Tout documenter — divulgations sur les données d’entraînement au titre de la loi compagnon AB 2013, métriques de précision de l’outil de détection et journaux d’incidents pour les divulgations supprimées ou altérées.
La vue d’ensemble
SB 942 n’est pas qu’une politique californienne. La plupart des grands systèmes d’IA générative étant déployés mondialement, tout modèle qualifié de fournisseur couvert en Californie embarquera presque certainement la même infrastructure de divulgation partout. Cela signifie que la loi exporte de fait une référence de provenance du contenu à l’échelle mondiale, accélérant l’adoption de C2PA et forçant un changement culturel où les médias générés par machine portent par défaut une signature vérifiable.
Pour les développeurs et déployeurs hors des États-Unis, la question pratique n’est pas de savoir s’il faut se conformer, mais s’il faut le faire uniquement pour les utilisateurs californiens (complexe, fragile) ou globalement (plus simple, défendable). La plupart des équipes entreprise choisissent la voie globale — une victoire discrète mais significative pour le mouvement d’authenticité du contenu.
Questions Fréquemment Posées
Le California AI Transparency Act s’applique-t-il aux entreprises hors des États-Unis ?
Oui. SB 942 s’applique à tout système d’IA générative comptant plus d’un million de visiteurs ou d’utilisateurs mensuels accessible publiquement en Californie — un seuil suffisamment bas pour englober la plupart des modèles d’image, vidéo et audio déployés mondialement. Les fournisseurs non américains dont les produits sont accessibles depuis la Californie doivent se conformer d’ici au 2 août 2026.
Quelle est la différence entre divulgations manifestes et latentes selon SB 942 ?
Les divulgations manifestes sont des marqueurs visibles à l’écran (filigranes, légendes, avertissements audio) que les utilisateurs peuvent appliquer en option au contenu généré par IA. Les divulgations latentes sont des métadonnées de provenance cachées (généralement des manifestes C2PA) intégrées dans chaque fichier de sortie — obligatoires que l’utilisateur active ou non le marqueur visible.
Quelles sanctions la Californie peut-elle imposer en cas de non-conformité ?
Les violations entraînent des sanctions civiles allant jusqu’à 5 000 $ par violation et par jour, plus les frais d’avocat. Le procureur général et les avocats des villes/comtés peuvent intenter des actions. Les générateurs d’images grand public à fort volume font face à une exposition théorique de plusieurs dizaines de millions si les sanctions sont calculées par contenu non conforme.
Sources et lectures complémentaires
- California AI Transparency Act Amendments Signed Into Law — Troutman Pepper
- California Enacts AI Transparency Law Requiring Disclosures — Jones Day
- SB-942 Bill Text — California Legislative Information
- New Obligations Under the California AI Transparency Act — Mayer Brown
- New State AI Laws Are Effective on January 1, 2026 — King & Spalding
- Navigating the California AI Transparency Act — Orrick






