Le projet qui teste la patience IA de Washington
Le 26 mars 2026, un trio bipartisan a introduit HR 8094 — l’AI Foundation Model Transparency Act of 2026. Les auteurs — Don Beyer (D-VA), Mike Lawler (R-NY) et Sara Jacobs (D-CA) — ont présenté la proposition comme un cadre de transparence minimum viable pour la poignée de labos IA dont les décisions façonnent désormais l’écosystème informationnel de centaines de millions d’Américains. L’argumentaire, selon le bureau de Beyer, porte moins sur la restriction de l’IA que sur l’exigence que les labos de pointe « montrent leur travail ».
Le projet ne crée pas de régime de licence. Il ne fixe pas de seuils de sécurité. Il mandate la Federal Trade Commission — en consultation avec le NIST, le Department of Commerce et l’OSTP — pour définir quelles informations les modèles de fondation couverts doivent déposer auprès de la FTC et quelles informations doivent être divulguées publiquement. Ce choix de conception est délibéré : plutôt que de légiférer des spécificités techniques qui vieilliraient mal, le Congrès délègue aux agences qui ont déjà la musculature d’écriture de normes.
Ce que le projet exige concrètement
Selon le résumé du Benton Institute, le régime de divulgation FTC couvrirait trois catégories :
Données d’entraînement. Un résumé suffisamment détaillé des données utilisées pour entraîner le modèle — assez pour que régulateurs, tribunaux et journalistes évaluent provenance, exposition au droit d’auteur et dynamiques de biais, sans forcer les labos à publier les corpus bruts.
Méthodologie d’entraînement. Comment le modèle a été entraîné — choix architecturaux, étapes de fine-tuning, RLHF et ajustements de sécurité. Là encore, un résumé adéquat pour une revue externe, pas une recette complète.
Collecte de données utilisateurs. Si et comment les données utilisateurs sont collectées pendant l’usage — réponse directe à la question croissante de savoir si les conversations avec les chatbots deviennent des données d’entraînement pour le prochain modèle.
Le blog d’Alston & Bird note que le projet est soigneusement cadré pour éviter les effets dissuasifs que les premiers brouillons plus stricts avaient soulevés : les modèles entièrement open source sont exemptés, l’application revient à la FTC (pas à une nouvelle agence IA), et l’approche résumé-pas-divulgation-complète laisse de la place aux protections propriétaires.
Publicité
Qui compte comme « entité couverte »
HR 8094 ne s’applique qu’aux modèles de fondation qui franchissent l’un des trois seuils, détaillés dans le texte du projet sur Congress.gov :
- Seuil de risque — le modèle pose des risques significatifs pour la sécurité, les droits civils ou la santé publique.
- Seuil d’échelle — plus de 10 millions d’utilisateurs ou téléchargements mensuels.
- Seuil de calcul — entraîné avec plus de 10²⁶ opérations computationnelles (cohérent avec le seuil du décret IA 2023 du président Biden et largement référencé dans les documents ultérieurs de politique IA américaine).
Les modèles entièrement open source sont exemptés. Cette exception compte politiquement — c’est ce qui gagne le soutien de la communauté open source et empêche le projet de ressembler à un fossé pour les labos à modèles fermés incumbents.
Pourquoi « la transparence seule » est son argument de vente
Les États-Unis ont passé trois ans à cycler entre propositions de régulation IA. Projets sur les évaluations de sécurité, les licences pré-déploiement et le reporting de calcul ont stagné. La leçon de conception de HR 8094, selon l’analyse BGov, est que les obligations de transparence sont peut-être le cadre à plus faible ambition qui puisse encore passer — assez étroit pour les républicains méfiants de la régulation à l’européenne, assez significatif pour les démocrates qui veulent de la redevabilité.
La liste d’endorsement du projet, selon le bureau de Beyer, englobe industrie, syndicats et société civile — coalition inhabituelle en politique IA. C’est cette coalition qui fait de HR 8094 un véhicule réaliste plutôt qu’un geste symbolique.
Statut actuel et ce qu’il faut surveiller
En avril 2026, le projet est renvoyé à la House Committee on Energy and Commerce, qui détient la juridiction sur les autorités FTC. GovTrack le note comme un projet vivant avec un chemin non trivial vers le markup. Trois variables décideront de son sort :
- Calendrier de commission. Si la Energy and Commerce Committee tient un markup avant la coupure d’août 2026, le projet a une vraie chance d’être examiné en plénière.
- Version Sénat. Une version bipartisane au Sénat serait en rédaction ; sans elle, le projet risque de mourir à la Chambre.
- Signal de l’administration. Le projet accorde à la FTC une nouvelle autorité réglementaire ; le confort de l’administration actuelle avec cette autorité est une variable politique.
Pour les labos IA — OpenAI, Anthropic, Google DeepMind, Meta, Mistral, xAI — l’action à court terme consiste à commencer à bâtir les pipelines de documentation internes que l’article 50 en Europe exige déjà, car si HR 8094 passe, l’univers de divulgation s’étend des fiches modèle volontaires aux dépôts juridiquement contraignants à la FTC. Les labos qui ont déjà construit des fiches modèle robustes ont la plus courte distance à parcourir.
Questions Fréquemment Posées
En quoi HR 8094 diffère-t-il des dispositions de transparence du règlement IA UE ?
Le règlement IA UE impose des devoirs de transparence horizontaux et directement applicables (article 50 sur l’étiquetage du contenu généré par IA ; articles 52-55 sur les modèles de fondation). HR 8094 est plus étroit : il autorise la FTC à fixer les normes de divulgation pour une catégorie spécifiquement définie de modèles de fondation à « fort impact ». Les obligations UE frappent au déploiement ; HR 8094 se concentre sur l’information structurelle sur la façon dont les modèles ont été construits. En pratique, un labo mondial se conformant aux règles UE serait à 70-80 % du chemin vers la conformité HR 8094.
Pourquoi les modèles entièrement open source sont-ils exemptés de HR 8094 ?
Les modèles de fondation open source publient déjà poids, architectures et souvent descriptions des données d’entraînement. Les auteurs du projet arguent que forcer des dépôts FTC redondants sur des projets déjà transparents serait du pur overhead. Les critiques répliquent que « open source » est un spectre — certaines publications « open-weight » n’incluent ni données d’entraînement ni documentation méthodologique — et la rulemaking FTC devra définir l’exemption avec précision.
Que se passe-t-il si le projet bloque au Congrès ?
La politique IA américaine continue de tourner sur un patchwork : lois d’État (efforts successeurs du SB 1047 californien, Colorado AI Act, sandbox Utah), standards volontaires NIST, et décisions spécifiques aux agences (actions d’application FTC, orientation SEC sur l’IA). Les labos mondiaux font face aux obligations du règlement IA UE qui créent de facto des normes de divulgation. Un blocage HR 8094 retarde un ancrage fédéral, mais la pression de transparence arrive de toute façon par les règles internationales et les litiges.
—
Sources et lectures complémentaires
- HR 8094 — AI Foundation Model Transparency Act of 2026 — Congress.gov
- Beyer, Lawler, Jacobs Introduce Bipartisan Legislation — Rep. Don Beyer
- Lawmakers Introduce Bipartisan Legislation to Promote AI Foundation Model Transparency — Benton Institute
- « Show Your Work, AI »: Congress Pushes for AI Model Transparency — Alston & Bird
- AI Transparency Requirements Emerge as Congress Crafts Framework — Bloomberg Government
- AI Foundation Model Transparency Act of 2026 — GovTrack
















