Washington trace une ligne sur la réglementation étatique de l’IA
Le 20 mars 2026, la Maison Blanche a publié son Cadre Politique National pour l’Intelligence Artificielle — le plan le plus détaillé à ce jour sur la manière dont le gouvernement fédéral entend mettre de l’ordre dans le paysage réglementaire américain de plus en plus fragmenté en matière d’IA. Le document n’a pas force de loi. C’est un ensemble de recommandations législatives destinées au Congrès. Mais son message central est sans équivoque : l’ère des 50 recueils de règles différents au niveau des États touche à sa fin, d’une manière ou d’une autre.
Le cadre s’appuie sur le décret exécutif 14365, signé en décembre 2025, qui ordonnait au Secrétaire au Commerce d’identifier les lois étatiques « contraignantes » sur l’IA dans un délai de 90 jours et établissait une Task Force de contentieux sur l’IA sous l’autorité du Procureur Général pour contester les mesures étatiques jugées inconstitutionnelles ou anticipant l’autorité fédérale. Ce délai de 90 jours a expiré le 11 mars 2026 sans rapport public du Commerce — mais le cadre de la Maison Blanche comble désormais le vide politique avec des recommandations de grande envergure.
Le problème du patchwork
L’urgence derrière le cadre est quantifiable. En mars 2026, les législateurs de 45 États ont introduit 1 561 projets de loi liés à l’IA — dépassant déjà le total de l’ensemble de l’année 2024, alors que la plupart des sessions législatives sont encore en cours. Rien qu’en 2025, 145 projets de loi sur l’IA ont été promulgués dans les 50 États.
Le résultat est un labyrinthe de conformité. La loi sur l’IA du Colorado — signée en 2024, retardée à plusieurs reprises et désormais substantiellement remaniée après qu’un groupe de travail a atteint un consensus en mars 2026 — impose des exigences de responsabilité algorithmique aux développeurs et aux déployeurs. L’Utah a promulgué plusieurs lois sur l’IA régissant les chatbots de santé mentale, les divulgations d’IA générative et la protection des consommateurs. La Géorgie a adopté sa propre loi sur les chatbots. L’Alabama établit une commission d’étude sur l’IA et la sécurité Internet des enfants. La Californie, le Texas, l’Illinois et des dizaines d’autres États ont leurs propres cadres qui se chevauchent et parfois se contredisent.
Pour les entreprises qui construisent des systèmes d’IA, ce patchwork signifie naviguer dans un régime réglementaire différent dans presque chaque État où elles opèrent — un fardeau que la Maison Blanche considère comme insoutenable pour maintenir la compétitivité américaine.
Ce que le cadre propose concrètement
L’architecture de préemption du cadre repose sur une distinction claire : les États perdraient leur autorité sur le développement des modèles d’IA mais conserveraient le pouvoir sur les préjudices spécifiques.
Ce que les États ne peuvent pas faire dans le cadre proposé :
- Réglementer le développement, l’entraînement ou la technologie sous-jacente des modèles d’IA
- Imposer une responsabilité aux développeurs d’IA pour la conduite illicite de tiers utilisant leurs modèles
- Entraver l’utilisation de l’IA par les citoyens pour des activités qui seraient licites sans l’IA
- Créer des exigences en conflit avec la norme fédérale proposée « minimalement contraignante »
Ce que les États peuvent encore faire :
- Appliquer les lois d’application générale (protection des consommateurs, prévention de la fraude)
- Protéger les enfants par des exigences de vérification d’âge et des limites de collecte de données
- Exercer leur autorité de zonage sur l’infrastructure d’IA comme les centres de données
- Gouverner leurs propres achats et l’utilisation de l’IA dans les services publics
Cette distinction développeur-déployeur est délibérée. Le cadre crée effectivement un bouclier de responsabilité pour les créateurs de modèles d’IA — des entreprises comme OpenAI, Anthropic, Google et Meta — tout en laissant la porte ouverte aux États pour réglementer la manière dont ces modèles sont appliqués en pratique.
Publicité
Sept piliers politiques
Au-delà de la préemption, le cadre énonce des recommandations législatives dans sept domaines :
La sécurité des enfants occupe la première place. Le cadre exhorte le Congrès à imposer des outils de vérification d’âge, des contrôles parentaux pour les paramètres de confidentialité et d’engagement, et des limites strictes sur la collecte de données des mineurs et la publicité comportementale en ligne les ciblant.
La protection des consommateurs se concentre sur la transparence — garantir que les consommateurs sachent quand ils interagissent avec une IA et puissent obtenir réparation en cas de préjudice causé par l’IA.
La politique énergétique aborde directement l’essor des centres de données, appelant à une rationalisation des autorisations fédérales pour l’infrastructure d’IA et à l’obligation légale que les clients résidentiels ne supportent pas l’augmentation des coûts d’électricité liée à la construction de nouveaux centres de données IA.
Les dispositions de sécurité nationale poussent à renforcer la capacité d’évaluation technique au sein des agences de sécurité pour évaluer les systèmes d’IA avancés.
La propriété intellectuelle est le domaine où le cadre prend sa position la plus controversée : l’Administration affirme que « l’entraînement des modèles d’IA sur du matériel protégé par le droit d’auteur ne viole pas les lois sur le droit d’auteur », tout en reconnaissant que les tribunaux trancheront en dernier ressort.
Les protections de la liberté d’expression visent à empêcher le gouvernement de « contraindre les fournisseurs de technologies, y compris les fournisseurs d’IA, à interdire, imposer ou modifier du contenu sur la base d’agendas partisans ou idéologiques ».
Les dispositions sur la main-d’œuvre abordent le déplacement et la transformation des emplois par l’IA, bien que les mécanismes législatifs spécifiques restent vagues par rapport aux autres piliers.
Le mécanisme d’application
Le cadre ne se résume pas à des recommandations sur papier. Le décret exécutif 14365 a créé la Task Force de contentieux sur l’IA, annoncée le 9 janvier 2026, avec mandat de contester les lois étatiques sur l’IA sur des bases constitutionnelles — y compris des plaintes selon lesquelles elles réglementent inconstitutionnellement le commerce interétatique ou sont anticipées par la réglementation fédérale.
De plus, le décret exécutif instruit les agences fédérales d’évaluer les cadres réglementaires des États en matière d’IA lors de la détermination de l’éligibilité aux financements fédéraux — un puissant levier financier qui pourrait pousser les États à se conformer même avant que le Congrès n’agisse.
Pas de nouveau régulateur — mais de nouvelles tensions
Le cadre recommande explicitement au Congrès de ne pas créer de nouvel organe fédéral de réglementation de l’IA. Il appelle plutôt à une réglementation sectorielle par les agences existantes dotées d’expertise dans leur domaine, complétée par des normes pilotées par l’industrie. Cette approche s’inscrit dans la posture dérégulatrice plus large de l’Administration mais soulève des questions sur la coordination et la capacité d’application.
Le cadre a déjà généré des frictions au Congrès. En juillet 2025, le Sénat a voté 99 contre 1 pour supprimer un moratoire de dix ans proposé sur la réglementation étatique de l’IA d’un projet de loi de réconciliation budgétaire — un signal fort que la préemption large fait face à un scepticisme bipartisan. La sénatrice Marsha Blackburn (R-Tenn.) a publié son propre projet de discussion, le « TRUMP AMERICA AI Act », qui intègre des mesures de protection des enfants et contre les deepfakes mais diverge notamment de la Maison Blanche sur le droit d’auteur, affirmant que l’entraînement de l’IA sur des œuvres protégées ne constitue pas un usage équitable.
Des démocrates dont les représentants Yvette Clarke et Don Beyer, ainsi que le sénateur Brian Schatz, ont exprimé des inquiétudes concernant les lacunes de responsabilité dans l’approche de préemption.
Ce que cela signifie à l’échelle mondiale
Le cadre positionne fermement les États-Unis dans le camp « innovation d’abord » de la gouvernance de l’IA, en contraste marqué avec la Loi sur l’IA de l’Union européenne fondée sur les risques et les réglementations sectorielles de l’IA en Chine. Pour les nations développant leurs propres stratégies de gouvernance de l’IA, l’approche américaine envoie un signal clair : Washington privilégie la vitesse et le leadership du marché plutôt que la réglementation préventive.
Pour les pays qui construisent encore leurs cadres réglementaires en matière d’IA, le débat américain illustre une tension fondamentale que chaque juridiction devra affronter — comment équilibrer le désir de cohérence nationale avec le besoin légitime de protections locales. Le modèle de préemption fédérale peut être typiquement américain dans son cadrage constitutionnel, mais la question sous-jacente est universelle : qui a le droit d’écrire les règles de l’intelligence artificielle, et à quel niveau de gouvernement ?
La réponse, pour l’instant, repose entre les mains d’un Congrès qui a montré qu’il pouvait s’accorder sur la protection des enfants face aux dangers de l’IA mais reste profondément divisé sur presque tout le reste.
Questions Fréquemment Posées
Le cadre politique IA américain a-t-il force de loi ?
Non. Le cadre publié le 20 mars 2026 est un ensemble de recommandations législatives destinées au Congrès, pas une législation contraignante. Il s’appuie sur le décret exécutif 14365, qui dispose de mécanismes d’application incluant une Task Force de contentieux sur l’IA, mais les dispositions de préemption nécessitent une action du Congrès pour devenir loi.
Qu’est-ce que la distinction développeur-déployeur dans le cadre ?
Le cadre propose que les États ne puissent pas réglementer la manière dont les modèles d’IA sont construits, entraînés ou développés. Cependant, les États conservent le pouvoir de réglementer la manière dont l’IA est déployée en pratique, y compris la protection des consommateurs, la sécurité des enfants et la prévention de la fraude. Cela protège effectivement les créateurs de modèles d’IA tout en permettant la réglementation des applications nuisibles.
Comment ce cadre se compare-t-il à la Loi sur l’IA de l’UE ?
Le cadre américain adopte une approche explicitement « innovation d’abord », évitant le système de classification par niveau de risque de l’UE et sa réglementation préventive. Tandis que l’UE catégorise les systèmes d’IA par niveau de risque et impose des exigences en conséquence, l’approche américaine privilégie une réglementation minimale du développement avec une supervision sectorielle par les agences existantes plutôt qu’un nouveau régulateur de l’IA.
Sources et lectures complémentaires
- White House Releases National Policy Framework for Artificial Intelligence — WilmerHale
- White House National AI Policy Framework Calls for Preempting State Laws, Protecting Children — Crowell & Moring
- White House AI Framework Stakes Out National Policy Position — National Law Review
- State AI Laws Under Federal Scrutiny: Key Takeaways from the Executive Order — White & Case
- White House Releases National AI Policy Framework As Congress Weighs Competing Legislative Paths — Steptoe
- The White House Legislative Recommendations: National Policy Framework for AI and Federal Preemption — Ropes & Gray
- State AI Legislation Tracker 2026: All 50 States — MultiState
- Blackburn Releases Discussion Draft of National Policy Framework for AI — Senate.gov















