La révolte bipartisane contre les refus algorithmiques
Un rare point d’accord bipartisan redéfinit l’assurance santé américaine : des législateurs d’États rouges et bleus disent aux assureurs qu’ils ne peuvent pas utiliser l’intelligence artificielle comme seule base pour refuser des demandes médicales. En avril 2026, plus de dix États ont adopté des lois ou avancé des projets de loi imposant qu’un médecin agréé examine tout refus de couverture par l’IA avant qu’il n’atteigne le patient.
Le mouvement a été déclenché par des controverses très médiatisées. L’algorithme nH Predict de UnitedHealth Group et les systèmes de refus automatisés de Cigna ont attiré l’attention nationale lorsque des enquêtes ont révélé que des outils d’IA rejetaient des demandes à l’échelle industrielle avec un contrôle médical minimal ou inexistant. Des patients atteints de maladies graves ont vu leur couverture refusée par des algorithmes qui n’avaient jamais examiné leurs dossiers médicaux.
Ce que les lois exigent concrètement
Les lois adoptées partagent une architecture commune : l’IA peut assister le traitement des demandes, mais un clinicien humain qualifié doit prendre la décision finale sur tout refus.
La Californie a ouvert la voie avec SB 1120, le Physicians Make Decisions Act, effective le 1er janvier 2025. La loi interdit tout refus, retard ou modification de soins fondé sur la nécessité médicale à moins qu’il ne soit examiné et décidé par un médecin agréé ayant une expertise dans le domaine clinique concerné.
L’Arizona a suivi avec une loi effective le 1er juillet 2026, exigeant qu’un médecin agréé de l’Arizona examine personnellement et approuve tout refus de demandes ou d’autorisations préalables fondé sur l’IA impliquant la nécessité médicale.
Le LB 77 du Nebraska interdit que les résultats de l’IA soient la seule base d’évaluation de la nécessité médicale pour refuser, retarder ou modifier des services de santé. Le HB 820 du Maryland ajoute une dimension d’audit, exigeant que les outils d’IA utilisés pour l’évaluation de l’utilisation intègrent l’historique médical individuel et restent ouverts à l’inspection de l’État.
L’Utah, le Connecticut et le Texas ont adopté des restrictions comparables, le Texas exigeant une divulgation écrite aux patients lorsque l’IA est utilisée dans le cadre de services de santé, effective le 1er janvier 2026.
Publicité
La vague législative de 2026
L’élan s’accélère. Le SB 444 de Géorgie a été adopté par le Sénat et exige un examen clinique humain avant que les assureurs refusent des soins prescrits par un médecin. Le Minnesota avance un projet de loi ciblant spécifiquement les refus par l’IA des demandes d’autorisation préalable. Le Kansas, la Pennsylvanie et plusieurs autres États ont introduit des mesures similaires dans leurs sessions 2026.
Les chiffres racontent une histoire frappante : 47 États ont présenté plus de 250 projets de loi sur l’IA en santé durant la seule session législative 2025, dont 33 ont été promulgués dans 21 États.
Tension fédéral-étatique
Ce qui rend cette vague particulièrement significative est la tension émergente avec le gouvernement fédéral. La Maison Blanche a signalé son désaccord avec l’approche étatique, favorisant l’autorégulation de l’industrie et des directives fédérales plus légères. Cela crée une bataille potentielle de préemption qui pourrait définir l’avenir de la gouvernance de l’IA en matière de santé.
Les groupes de l’industrie de l’assurance arguent que l’IA améliore l’efficacité, réduit les délais de traitement et peut détecter la fraude plus efficacement que l’examen manuel. Ils avertissent qu’imposer un examen humain pour chaque refus pourrait ralentir le traitement des demandes et augmenter les coûts administratifs. Cependant, les organisations de défense des patients rétorquent que la rapidité ne peut pas se faire au détriment de la précision lorsque des vies sont en jeu.
Le défi de conformité pour les assureurs
Pour les assureurs santé opérant dans plusieurs États, le patchwork émergent de lois crée une complexité de conformité significative. Chaque État définit l’« examen humain » légèrement différemment — la Californie exige un médecin ayant une expertise clinique pertinente, l’Arizona impose un médecin agréé dans l’État, et le Maryland se concentre sur la transparence des audits. Les assureurs doivent désormais cartographier leurs flux de travail IA de traitement des demandes par rapport à au moins dix cadres réglementaires distincts, avec d’autres qui entrent en vigueur trimestriellement.
L’impact pratique force les assureurs à repenser leurs pipelines de traitement des demandes assistés par l’IA. Plutôt que d’éliminer entièrement l’IA, la plupart construisent des flux de travail hybrides où les algorithmes signalent les refus potentiels mais les cliniciens agréés prennent la décision finale. Ce modèle « IA assistante, humain décideur » émerge comme le standard de facto de conformité.
Questions Fréquemment Posées
Qu’exigent exactement ces lois étatiques des assureurs santé ?
Les lois imposent que les assureurs santé ne peuvent pas utiliser des algorithmes d’IA comme seule base pour refuser des demandes médicales ou des autorisations préalables. Un médecin agréé ou un prestataire de santé qualifié doit personnellement examiner le dossier médical du patient et prendre la décision finale. Des États comme la Californie exigent que le médecin examinateur ait une expertise dans le domaine clinique spécifique en question.
Pourquoi les États républicains et démocrates soutiennent-ils ces réglementations ?
Les refus de demandes par l’IA affectent les patients de tout l’échiquier politique. Les enquêtes sur des algorithmes comme nH Predict de UnitedHealth ont révélé que des outils d’IA refusaient des demandes à l’échelle industrielle sans examiner les dossiers médicaux individuels. L’impact humain des refus algorithmiques — traitements anticancéreux retardés, approbations chirurgicales refusées — crée une urgence bipartisane qui transcende les clivages partisans habituels sur la réglementation.
Comment les assureurs santé s’adaptent-ils pour se conformer aux multiples lois étatiques ?
La plupart des assureurs construisent des flux de travail hybrides « IA assistante, humain décideur » où les algorithmes signalent les refus potentiels mais les cliniciens agréés prennent la décision finale. Le défi de conformité est significatif : chaque État définit l’examen humain différemment, obligeant les assureurs à cartographier leurs pipelines de demandes IA par rapport à au moins dix cadres réglementaires distincts. Beaucoup investissent dans le recrutement de réviseurs cliniques et des systèmes de suivi de conformité État par État.
Sources et lectures complémentaires
- Landmark Law Prohibits Health Insurance Companies from Using AI to Deny Healthcare Coverage — Senator Josh Becker
- States Pursue Legislation Limiting AI’s Growing Role in Payer Prior Authorization Denials — Dark Daily
- Red and Blue States Want to Regulate AI in Insurance. The White House Disagrees — Governing
- 47 States Introduced Healthcare AI Bills in 2025 — Becker’s Hospital Review
- Georgia Bill Would Ban AI-Only Insurance Denials — Hoodline
- Briefing Book 2026: AI Use in Health Insurance — KLRD
















