Le déclencheur : quand les compagnons IA deviennent dangereux
La vague de législation trouve son origine directe dans l’affaire Sewell Setzer. En octobre 2024, Megan Garcia a déposé une plainte fédérale alléguant que la conception du chatbot de Character.AI avait délibérément rendu son fils de 14 ans dépendant, l’entraînant dans des conversations émotionnellement intenses et sexuellement inappropriées qui ont contribué à sa mort en février 2024. Character.AI et Google ont accepté un règlement amiable en janvier 2026, mais le tort causé au discours d’autorégulation de l’industrie était déjà fait.
De multiples poursuites ont suivi en Floride, au Texas, au Colorado et à New York. Les législateurs des États ont décidé qu’ils ne pouvaient pas se permettre d’attendre Washington.
La Californie tire la première : le SB 243 établit la référence
Le 13 octobre 2025, le gouverneur Gavin Newsom a signé le SB 243, faisant de la Californie le premier État à imposer des garde-fous de sécurité spécifiquement pour les chatbots IA compagnons utilisés par les mineurs. Entré en vigueur le 1er janvier 2026, la loi exige :
- Des rappels de divulgation récurrents informant les utilisateurs mineurs qu’ils interagissent avec une IA et devraient faire une pause (toutes les heures pour les mineurs, toutes les trois heures pour les adultes).
- Des protocoles de prévention du suicide, incluant des orientations obligatoires vers des lignes de crise lorsque les utilisateurs expriment des idées suicidaires.
- L’interdiction de contenu sexuellement explicite destiné aux mineurs.
- Des rapports de transparence annuels documentant les incidents de sécurité et la gestion des risques.
- Un droit d’action privé avec des dommages-intérêts de 1 000 $ par infraction, donnant aux familles un recours juridique direct.
Le SB 243 est devenu le modèle. En quelques mois, plus d’une douzaine d’États ont introduit des variantes du même cadre, chacun ajoutant des spécificités locales.
Le patchwork s’étend : des divergences État par État
Ce qui rend ce paysage difficile pour les équipes de conformité n’est pas le volume de législation mais son incohérence. Chaque État élabore des règles reflétant ses priorités politiques locales, créant des obligations contradictoires pour les entreprises opérant à l’échelle nationale.
Le HB 2225 de Washington est devenu une loi dédiée à la sécurité des chatbots IA lorsque le gouverneur Bob Ferguson l’a signé le 24 mars 2026. Il reprend le cadre de divulgation californien mais ajoute des interdictions contre les chatbots qui culpabilisent ou pressent les mineurs de continuer les conversations ou de cacher des informations à leurs parents. Il entre en vigueur le 1er janvier 2027.
Le SB 1546 de l’Oregon, signé par la gouverneure Tina Kotek, va plus loin sur les rapports de santé mentale. Les opérateurs doivent publier des divulgations annuelles détaillant combien de fois ils ont orienté des utilisateurs vers le 988 Suicide & Crisis Lifeline, leurs protocoles d’intervention et comment les meilleures pratiques cliniques informent l’engagement lorsque les utilisateurs continuent d’exprimer des idées suicidaires après avoir reçu une orientation. L’Oregon inclut également un droit d’action privé de 1 000 $ par infraction et entre en vigueur le 1er janvier 2027.
Le SB 1493 du Tennessee adopte l’approche la plus agressive. Introduit en décembre 2025, le projet de loi ferait de l’entraînement délibéré de modèles IA encourageant le suicide ou l’homicide, ou simulant des êtres humains pour des relations émotionnelles, un crime de classe A — passible de 15 à 25 ans de prison. Les dommages civils pour les personnes lésées pourraient atteindre 150 000 $. Le projet cible les développeurs, pas les utilisateurs, et entrerait en vigueur le 1er juillet 2026.
Le Nebraska a trouvé un véhicule législatif créatif. Le LB 525, un projet de loi sur la confidentialité des données agricoles, a été amendé pour inclure le Conversational Artificial Intelligence Safety Act. Le projet amendé exige la divulgation lorsque les utilisateurs interagissent avec l’IA et ajoute des protections contre le développement par les mineurs d’une dépendance émotionnelle aux chatbots, démontrant que la réglementation de l’IA trouve des voies bipartisanes par des canaux inattendus.
Publicité
La riposte fédérale
La Maison-Blanche n’observe pas passivement cette fragmentation. Le 11 décembre 2025, le président Trump a signé un décret exécutif intitulé « Ensuring a National Policy Framework for Artificial Intelligence », créant une AI Litigation Task Force au sein du DOJ spécifiquement pour contester les lois étatiques sur l’IA devant les tribunaux fédéraux. L’équipe argue que des réglementations étatiques incohérentes entravent inconstitutionnellement le commerce interétatique.
Le décret a également ordonné aux agences fédérales de conditionner certains financements d’infrastructure à l’abrogation par les États de réglementations IA jugées « excessives ».
Cependant, le décret exempte explicitement la protection des mineurs de la préemption fédérale, ce qui signifie que les projets de loi spécifiques aux chatbots ciblant les mineurs survivront probablement même aux contestations fédérales agressives. Cette exception garantit que le patchwork persistera précisément dans le domaine générant le plus d’activité législative.
Le labyrinthe de conformité
Pour les entreprises d’IA, les implications pratiques sont considérables. Un chatbot déployé à l’échelle nationale doit désormais naviguer entre :
- Différentes fréquences de divulgation (toutes les heures pour les mineurs dans plusieurs États, toutes les trois heures pour les adultes, en continu dans certains projets proposés).
- Des structures de responsabilité variées (sanctions pénales criminelles au Tennessee, dommages-intérêts de 1 000 $ en Californie et en Oregon, application par le procureur général dans d’autres États).
- Des définitions incohérentes de ce qui constitue un « chatbot compagnon » par opposition à un assistant IA généraliste.
- Des exigences divergentes de vérification de l’âge, certains États exigeant le consentement parental et d’autres seulement une estimation de l’âge de bonne foi.
La Transparency Coalition, qui suit la législation IA au niveau national, a recensé plus de 300 projets de loi liés à l’IA dans tous les États début 2026, la sécurité des chatbots émergeant comme la sous-catégorie la plus active.
Ce que cela signifie au-delà des États-Unis
Cette fragmentation réglementaire a des implications mondiales. L’AI Act de l’UE adopte une approche centralisée par classification des risques. La Chine impose la transparence algorithmique par réglementation nationale. Mais le modèle américain, où cinquante États peuvent chacun rédiger des règles différentes, crée un environnement de conformité qui affecte toute entreprise vendant des produits IA aux consommateurs américains, quel que soit le siège de ces entreprises.
Pour les nations développant leur propre gouvernance de l’IA, l’expérience américaine souligne une leçon critique : agir tôt avec un cadre national cohérent, ou risquer un patchwork qui ne satisfait personne et désoriente tout le monde.
Questions Fréquemment Posées
Pourquoi les États américains réglementent-ils les chatbots IA au lieu du gouvernement fédéral ?
Le Congrès n’a pas adopté de législation IA globale, créant un vide réglementaire que les législateurs étatiques se sont empressés de combler après l’affaire du suicide adolescent lié à Character.AI. Le décret exécutif du président Trump de décembre 2025 a tenté d’affirmer la primauté fédérale en créant un groupe de travail au DOJ pour contester les lois étatiques sur l’IA, mais il a explicitement exempté la protection des mineurs de la préemption — autorisant de fait les projets de loi étatiques sur les chatbots qui dominent la vague législative actuelle.
Comment ces lois affectent-elles les entreprises d’IA opérant hors des États-Unis ?
Toute entreprise dont le chatbot IA est accessible aux utilisateurs de ces États doit se conformer aux réglementations locales, quel que soit le siège de l’entreprise. Cette portée extraterritoriale reflète l’impact mondial du RGPD. Les entreprises du monde entier développant des produits d’IA conversationnelle pour les marchés internationaux devront tenir compte de ces exigences si elles servent des utilisateurs américains, y compris la responsabilité pénale potentielle en vertu du SB 1493 du Tennessee.
Quelle est l’exigence la plus courante dans tous ces projets de loi ?
La divulgation obligatoire que l’utilisateur interagit avec une IA, et non un humain. Presque tous les projets de loi exigent des notifications claires et récurrentes, bien que les détails varient : la Californie et Washington imposent des rappels toutes les trois heures pour les adultes et toutes les heures pour les mineurs, tandis que plusieurs projets proposés exigent une divulgation continue ou par session. Les protocoles de prévention du suicide — spécifiquement les orientations vers le 988 Suicide & Crisis Lifeline — sont la deuxième exigence la plus courante.
Sources et lectures complémentaires
- AI Chatbot Legislation Across the States — Stateside Associates
- Understanding the New Wave of Chatbot Legislation: California SB 243 and Beyond — Future of Privacy Forum
- Washington State Enacts Law Regulating AI Companion Chatbots — Hunton Andrews Kurth
- Oregon SB 1546: The First Chatbot Law With Real Teeth — Baker Botts
- Tennessee SB 1493 Could Ban AI Companions Like Nomi by July 2026 — RoboRhythms
- President Trump Signs Executive Order Challenging State AI Laws — Paul Hastings
- Google and Character.AI Agree to Settle Lawsuits Over Teen Suicides — CNN
- AI Legislative Update: March 27, 2026 — Transparency Coalition





