Le tsunami législatif
Les États-Unis connaissent une vague sans précédent de législation sur l’IA au niveau des États. En mars 2026, les législateurs de 45 États ont introduit 1 561 projets de loi liés à l’IA — une accélération dramatique par rapport aux plus de 600 projets suivis en 2024 et aux environ 100 promulgués cette année-là. Le rythme ne montre aucun signe de ralentissement, avec 145 projets supplémentaires promulgués en 2025.
Cette poussée législative reflète une dynamique critique : en l’absence de réglementation fédérale complète de l’IA, les États agissent indépendamment pour adresser les risques de l’IA. Le résultat est un patchwork émergent de réglementations qui varie significativement d’un État à l’autre.
L’IA en santé : le front réglementaire
La santé a émergé comme le secteur le plus intensément réglementé pour les applications d’IA. Législateurs ont introduit plus de 250 projets de loi IA impactant spécifiquement la santé, dont 33 promulgués dans 21 États.
La préoccupation centrale est la responsabilité. Lorsque les systèmes d’IA influencent les décisions de santé — des recommandations de traitement aux adjudications de demandes d’assurance — les patients ont besoin de transparence et de recours.
Indiana a promulgué des exigences pour les professionnels de santé et les assureurs de divulguer quand l’IA est utilisée dans les décisions de santé. Les assureurs doivent de même divulguer quand les systèmes d’IA influencent les déterminations de couverture.
Utah poursuit la réglementation de l’IA en santé via son programme innovant AI Learning Laboratory, incluant des directives pour les prestataires de santé mentale. La session législative 2026 de l’Utah a abordé l’IA en pratique médicale, assurance santé, écoles et protections contre les deepfakes.
Washington a fait avancer des projets de loi IA majeurs, incluant des dispositions de divulgation des chatbots et de transparence de l’IA dans les contextes de santé.
Le problème du patchwork
L’approche État par État crée des défis significatifs pour les entreprises. Une startup de technologie de santé déployant l’IA dans plusieurs États doit se conformer à potentiellement des dizaines d’exigences de divulgation différentes. Ce fardeau de conformité pèse disproportionnellement sur les petites entreprises.
Le paysage juridique est compliqué par l’interaction entre les lois étatiques sur l’IA et les cadres fédéraux existants comme HIPAA. Certains groupes industriels plaident pour une préemption fédérale, mais la législation fédérale sur l’IA a stagné à plusieurs reprises.
Publicité
Au-delà de la santé : thèmes réglementaires clés
Deepfakes et médias synthétiques : Plusieurs États ont promulgué des lois exigeant la divulgation du contenu généré par l’IA.
Emploi et recrutement : Plusieurs États restreignent l’utilisation de l’IA dans les décisions d’embauche, exigeant une revue humaine des évaluations de candidats générées par l’IA.
Éducation : Les États abordent tout, de la confidentialité des données étudiantes aux outils de tutorat IA.
Protection des consommateurs : Des projets émergent exigeant que les entreprises divulguent quand les consommateurs interagissent avec des systèmes d’IA.
Tension fédérale-étatique
Une tension politique significative se construit entre les approches fédérale et étatiques. Un décret présidentiel a signalé une perturbation des efforts réglementaires étatiques. Le NIST continue de développer des cadres de gestion des risques IA que certains États référencent dans leur législation.
La question clé pour 2026-2027 est de savoir si le Congrès adoptera une législation IA complète. S’il ne le fait pas, le patchwork étatique continuera de s’étendre.
Implications pour les entreprises technologiques mondiales
La vague réglementaire américaine a des implications globales. Les entreprises internationales servant les marchés américains doivent se conformer à ce patchwork, et les lois étatiques les plus restrictives fixent effectivement le plancher de conformité à l’échelle nationale.
Questions fréquentes
Pourquoi les États américains réglementent-ils l’IA au lieu du gouvernement fédéral ?
La législation fédérale sur l’IA a stagné à plusieurs reprises au Congrès en raison de désaccords partisans et du lobbying des entreprises tech. En l’absence de réglementation fédérale complète, les États ont agi indépendamment, créant un patchwork de plus de 1 500 projets de loi dans 45 États.
Quelles restrictions spécifiques les États imposent-ils sur l’IA en santé ?
Les États exigent principalement la divulgation et la supervision humaine. Indiana exige que les prestataires de santé et les assureurs divulguent quand l’IA influence les décisions. Utah réglemente l’utilisation de l’IA en santé mentale. Plusieurs États interdisent les refus de prestations santé effectués uniquement par l’IA.
Comment cela affecte-t-il les entreprises internationales déployant l’IA aux États-Unis ?
Les entreprises internationales doivent se conformer aux réglementations de chaque État où elles opèrent. La loi étatique la plus restrictive devient effectivement le plancher de conformité à l’échelle nationale, car les entreprises implémentent généralement une norme unique plutôt que des variations État par État.
Sources et lectures complémentaires
- State AI Legislation Tracker 2026: All 50 States — MultiState
- New State AI Laws Effective January 1, 2026 — King & Spalding
- HRx: New Year, New AI Rules: Healthcare AI Laws Now in Effect — Akerman LLP
- U.S. Artificial Intelligence Law Update — Baker Botts
- AI Legislative Update: March 20, 2026 — Transparency Coalition





