Le décret qui a tout changé

Le 11 décembre 2025, le président Trump a signé un décret intitulé « Ensuring a National Policy Framework for Artificial Intelligence » — l’une des interventions fédérales les plus agressives en matière de gouvernance technologique depuis des décennies. Le décret ordonne au Department of Justice d’établir un AI Litigation Task Force dans un délai de 30 jours, avec un mandat explicite de contester les réglementations étatiques sur l’IA devant les tribunaux fédéraux, au motif qu’elles entravent inconstitutionnellement le commerce interétatique, entrent en conflit avec les réglementations fédérales, ou sont autrement illégales.

Le décret ne se limite pas au contentieux. Il charge le secrétaire au Commerce de publier une évaluation exhaustive des lois étatiques existantes sur l’IA d’ici le 11 mars 2026, en identifiant celles jugées « contraignantes » et en conflit avec le cadre politique national. L’examen doit signaler les lois étatiques susceptibles d’être renvoyées au nouveau groupe de travail du DOJ, créant de fait un pipeline allant de l’inventaire réglementaire à la contestation juridique.

Mais la disposition la plus lourde de conséquences du décret est peut-être l’utilisation du financement fédéral comme levier. Il ordonne au Department of Commerce de conditionner le financement des infrastructures haut débit dans le cadre du programme Broadband Equity, Access, and Deployment (BEAD) à la volonté des États d’abroger ou de modifier les réglementations sur l’IA que le gouvernement fédéral juge obstructives. Pour les gouvernements étatiques à court de fonds qui comptaient sur les subventions BEAD pour combler la fracture numérique, cela crée un choix déchirant entre l’autonomie en matière de gouvernance de l’IA et un investissement en haut débit désespérément nécessaire.

Les implications constitutionnelles sont considérables. Bien que la Commerce Clause confère de longue date au gouvernement fédéral l’autorité de réguler le commerce interétatique, l’application de cette autorité pour préempter les réglementations étatiques de sécurité en matière d’IA s’aventure en territoire contesté. Les juristes citent la décision de la Cour suprême de 2023 dans l’affaire National Pork Producers Council v. Ross, qui a confirmé le droit de la Californie de réguler le commerce interétatique par des normes de produits, comme preuve que les États conservent une autorité réglementaire substantielle même sur les marchés interétatiques.

Le paysage réglementaire étatique de l’IA

Pour comprendre pourquoi le gouvernement fédéral a adopté une posture aussi agressive, il faut d’abord saisir la complexité de l’environnement réglementaire étatique qui s’est développé ces dernières années.

Rien qu’en 2025, 46 États ont introduit plus de 600 textes législatifs relatifs à l’IA, dont environ 145 ont été adoptés dans l’ensemble des 50 États. Ces lois varient considérablement en portée, en approche et en rigueur. Le Colorado AI Act (SB 24-205), signé par le gouverneur Polis en mai 2024 et dont l’entrée en vigueur est prévue le 30 juin 2026 après un report par rapport à la date initiale de février 2026, impose des évaluations d’impact et des tests de biais exhaustifs aux déployeurs et développeurs de systèmes d’IA à haut risque — ceux qui prennent ou influencent substantiellement des décisions conséquentes en matière d’emploi, d’éducation, de crédit, de santé, de logement, d’assurance et de services juridiques.

Le HB 3773 de l’Illinois, en vigueur depuis le 1er janvier 2026, amende le Human Rights Act de l’État pour faire de l’utilisation de l’IA par les employeurs de manière discriminatoire envers les classes protégées une violation des droits civiques, même involontairement. Il exige que les employeurs informent les salariés lorsque l’IA est utilisée dans les décisions d’emploi et impose une conservation des dossiers pendant quatre ans. La Californie a promulgué 24 lois relatives à l’IA au cours de ses sessions législatives 2024 et 2025, dont le Transparency in Frontier Artificial Intelligence Act (SB 53), signé en septembre 2025. Le Local Law 144 de New York City exige des audits annuels de biais des outils automatisés de décision en matière d’emploi et la publication des résultats.

La charge de conformité pour les entreprises opérant au niveau national est immédiate et substantielle. Un grand employeur utilisant l’IA dans le recrutement doit simultanément se conformer aux exigences de divulgation de l’Illinois, aux mandats d’audit de New York City, aux règles de transparence de la Californie et au cadre d’évaluation d’impact du Colorado, chacun avec des définitions, des seuils et des mécanismes d’application différents.

Le Texas offre un contraste instructif. Son Responsible AI Governance Act (TRAIGA), signé par le gouverneur Abbott le 22 juin 2025 et entré en vigueur le 1er janvier 2026, traite de la discrimination par l’IA mais emploie un cadre de responsabilité fondé sur l’intention plutôt que l’approche d’impact disparate utilisée par le Colorado et l’Illinois. En vertu du TRAIGA, un système d’IA n’est illégal que s’il a été déployé avec l’intention de discriminer une classe protégée. Cette divergence philosophique signifie qu’un même outil d’IA de recrutement pourrait être simultanément légal au Texas et présumé problématique au Colorado, selon la manière dont la responsabilité est évaluée.

Le groupe de travail contentieux IA du DOJ

Le AI Litigation Task Force du DOJ, devenu opérationnel au 10 janvier 2026, représente quelque chose d’inhabituel dans l’histoire réglementaire américaine : une entité fédérale dont la mission principale est de contester les réglementations étatiques en matière de technologie par le contentieux.

Le groupe de travail opère sous l’autorité de l’Attorney General et a été chargé de contester les lois étatiques sur l’IA sur de multiples fondements juridiques. Sa stratégie contentieuse semble s’articuler autour de trois théories. Premièrement, il soutient que les réglementations étatiques sur l’IA sont préemptées par la Commerce Clause, en particulier lorsqu’elles imposent des exigences aux systèmes d’IA utilisés dans le commerce interétatique. Deuxièmement, il conteste les réglementations qu’il estime en conflit avec les protections du Premier Amendement, arguant que les résultats de l’IA dans certains contextes constituent une expression protégée. Troisièmement, il invoque la Supremacy Clause pour soutenir que les réglementations étatiques entrent en conflit avec la politique fédérale telle qu’exprimée par le décret exécutif et les orientations connexes des agences.

L’examen du Department of Commerce prévu pour le 11 mars est conçu pour alimenter directement le pipeline contentieux du groupe de travail. Les réglementations signalées comme « contraignantes » seront prioritairement contestées. Le procureur général du Colorado, Phil Weiser, a déjà indiqué que l’État prévoit de contester le décret en justice, et les premières indications suggèrent que le groupe de travail concentrera ses efforts initiaux sur le Colorado AI Act et les diverses exigences californiennes en matière d’IA, tant en raison de leur portée exhaustive que parce que des contestations réussies à ces niveaux auraient le plus grand effet dissuasif sur les autres États envisageant des législations similaires.

Le décret exécutif enrôle également d’autres agences fédérales. Il charge la Federal Trade Commission de publier une déclaration de politique d’ici le 11 mars 2026, classifiant l’atténuation des biais imposée par les États comme une pratique commerciale potentiellement trompeuse. La Federal Communications Commission a également reçu instruction de s’aligner sur les politiques IA de l’administration — une démarche qui a incité 23 procureurs généraux d’États à déposer une lettre s’opposant à la préemption par la FCC des lois étatiques sur l’IA le 19 décembre 2025.

Advertisement

La riposte des procureurs généraux

L’offensive fédérale de préemption n’est pas restée sans réponse. Avant même la signature du décret, une coalition bipartisane de 36 procureurs généraux d’États avait adressé une lettre aux dirigeants du Congrès le 25 novembre 2025, les exhortant à rejeter les propositions de moratoire fédéral qui interdiraient aux États d’adopter ou d’appliquer des lois sur l’IA. La coalition a fait valoir que les États doivent rester habilités à appliquer les lois existantes et à développer de nouvelles approches pour relever les défis posés par l’IA.

La coalition a présenté le différend comme une question fondamentale de fédéralisme. Leur lettre a mis en lumière les préjudices réels causés par l’IA, notamment les escroqueries, les deepfakes et les interactions inappropriées ciblant des populations vulnérables comme les enfants et les personnes âgées, et a soutenu qu’une préemption fédérale large saperait la capacité des États à répondre rapidement et efficacement à ces risques émergents.

Cet argument porte d’autant plus que le Congrès n’a adopté aucune législation fédérale exhaustive sur l’IA. Un moratoire proposé de 10 ans sur l’application des lois étatiques sur l’IA avait été inclus dans la version de la Chambre du « One Big Beautiful Bill » en mai 2025, qui aurait préempté les lois étatiques existantes en Californie, au Colorado, à New York, dans l’Illinois et en Utah, ainsi que plus de 1 000 projets de loi IA en attente. Cependant, le Sénat a voté à 99 contre 1 pour supprimer la disposition de moratoire, et le texte a été signé par le président Trump le 4 juillet 2025 sans le langage de préemption sur l’IA. Les procureurs généraux soutiennent que préempter les réglementations étatiques sans fournir d’alternative fédérale crée un vide réglementaire qui laisse les Américains sans protection.

Après le décret, l’opposition s’est intensifiée. Le 9 décembre 2025, 42 procureurs généraux d’États et de territoires ont adressé une lettre à 13 grandes entreprises d’IA exprimant des préoccupations quant à la sécurité de l’IA. La dynamique politique est complexe — bien que l’opposition penche du côté démocrate, elle inclut des procureurs généraux républicains et même des gouverneurs républicains comme Ron DeSantis, qui a publiquement affirmé qu’« un décret exécutif ne peut pas préempter l’action législative des États ». Cet élément bipartisan complique les efforts de l’administration pour présenter l’opposition comme purement partisane.

Le levier du financement BEAD

Le conditionnement du financement du programme BEAD à la conformité réglementaire des États en matière d’IA représente peut-être l’aspect le plus lourd de conséquences du décret — et le plus juridiquement vulnérable.

Le BEAD a été créé dans le cadre de l’Infrastructure Investment and Jobs Act de 2021, avec une allocation totale de 42,45 milliards de dollars pour le déploiement du haut débit dans les zones mal desservies. Le décret cible spécifiquement la portion « non-déploiement » du financement BEAD — environ 21 milliards de dollars de fonds restants après que les États ont satisfait aux exigences de déploiement d’infrastructures — en conditionnant l’éligibilité au retrait par les États des réglementations IA jugées contraignantes.

Pour les communautés rurales et mal desservies, les enjeux sont considérables. Le financement BEAD représente l’investissement le plus substantiel en matière de haut débit de l’histoire américaine, et de nombreuses communautés n’ont pas de voie alternative vers l’accès au haut débit. Les responsables étatiques font face à la perspective d’expliquer à leurs administrés que leur financement haut débit a été retardé parce que l’État a refusé de modifier sa posture réglementaire en matière d’IA.

Le précédent juridique est contesté. La décision de la Cour suprême de 2012 dans l’affaire NFIB v. Sebelius a établi que le gouvernement fédéral ne peut pas utiliser des conditions de financement si coercitives qu’elles contraignent effectivement les États à se conformer — la Cour avait invalidé le mécanisme d’application de l’extension de Medicaid de l’Affordable Care Act sur ce fondement. Les analystes juridiques de Lawfare ont soutenu que les procureurs généraux se préparant à contester la condition BEAD « ont la meilleure lecture de la loi BEAD », notant que la loi — qui porte sur le déploiement du service haut débit et le raccordement des sites — ne mentionne jamais l’IA. La doctrine des questions majeures exige une autorisation claire du Congrès avant qu’une agence ne revendique un pouvoir sur des questions d’importance économique et politique considérable, et les canons protecteurs du fédéralisme exigent la même chose avant que le Congrès ne conditionne des fonds fédéraux à la politique des États.

Que se passe-t-il à l’échéance du 11 mars

L’échéance du 11 mars 2026 pour l’examen réglementaire du Department of Commerce constitue le prochain point d’inflexion critique de ce différend. Le contenu de l’examen déterminera quelles réglementations étatiques le groupe de travail du DOJ ciblera en priorité et quels États feront face à la pression la plus immédiate sur le financement BEAD.

Pour les entreprises exploitant des systèmes d’IA au niveau national, l’incertitude est en soi un fardeau significatif. Les équipes de conformité ne peuvent pas planifier efficacement lorsque le terrain réglementaire risque de changer radicalement dans les mois à venir. Plusieurs grandes entreprises technologiques auraient suspendu leurs investissements en conformité IA en attendant une clarification sur les lois étatiques qui survivront à la contestation fédérale.

Les implications plus larges vont bien au-delà de l’IA. Si le gouvernement fédéral établit avec succès un précédent de préemption des réglementations étatiques en matière de technologie par l’action exécutive et les conditions de financement, le cadre pourrait s’appliquer aux lois étatiques sur la vie privée, aux exigences de modération de contenu et à d’autres domaines de gouvernance technologique où les États ont agi en l’absence de législation fédérale. Des experts juridiques comme John Bergmayer de Public Knowledge ont soutenu que l’administration « tente de trouver un moyen de contourner le Congrès avec ces différentes théories dans le décret exécutif » et que les théories juridiques ne résistent pas bien à l’analyse.

Pour l’instant, la seule certitude est l’incertitude. L’échéance du 11 mars clarifiera les cibles spécifiques du gouvernement fédéral, mais les batailles juridiques qui suivront prendront probablement des années à résoudre. Dans l’intervalle, les entreprises, les États et les consommateurs doivent naviguer dans un environnement réglementaire où les règles pourraient changer radicalement en fonction d’issues judiciaires et parlementaires que personne ne peut prédire avec certitude.

Advertisement

🧭 Radar de Décision

Dimension Évaluation
Pertinence pour l’Algérie Moyenne — Le cadre réglementaire naissant de l’Algérie en matière d’IA peut tirer des enseignements de la tension fédérale-étatique américaine pour éviter une gouvernance fragmentée entre les règles nationales et celles des wilayas
Infrastructure prête ? Non — L’Algérie ne dispose pas de l’infrastructure réglementaire étatique mature sur l’IA qui fait l’objet du débat américain, mais le modèle de financement BEAD liant l’investissement haut débit à la politique technologique est pertinent pour les propres plans d’expansion du haut débit de l’Algérie
Compétences disponibles ? Partiellement — Les experts juridiques et politiques algériens développent des capacités de gouvernance de l’IA, mais peu sont spécialisés dans l’intersection entre la réglementation technologique et les cadres de fédéralisme
Horizon d’action 12-24 mois — Surveiller les résultats des contestations juridiques américaines pour en tirer des enseignements applicables au développement de la stratégie IA de l’Algérie
Parties prenantes clés MPTIC (ministère de la Poste et des Télécommunications), ARPCE (régulateur télécom), ministère de l’Économie numérique, entreprises technologiques algériennes, juristes, chercheurs en politiques publiques
Type de décision Éducatif — Comprendre comment le plus grand marché mondial de l’IA résout les conflits réglementaires fédéral-étatique fournit un modèle pour la propre approche de gouvernance de l’Algérie

Sources et lectures complémentaires