Une nouvelle catégorie de conformité : les services IA anthropomorphes
Jusqu’en avril 2026, le paysage réglementaire IA en Chine traitait les services IA principalement à travers deux prismes : le contenu (que dit l’IA ?) et le niveau de risque (quelle est la capacité du modèle ?). Les Mesures intérimaires introduisent un troisième prisme : la relation comportementale (quel type de relation l’IA simule-t-elle avec l’utilisateur ?).
La portée est délibérément étroite. Selon l’analyse de Mayer Brown, la version finale des mesures a été restreinte par rapport au projet initial en « IA semblable à un humain » pour cibler uniquement les services fournissant une « interaction émotionnelle continue » — un choix de conception qui exclut explicitement les outils courants comme les robots de tutorat éducatif et les assistants de productivité. La cible est les services de compagnons IA : amis virtuels, chatbots de soutien émotionnel, partenaires romantiques virtuels et simulateurs de deuil.
Cette précision réglementaire a des conséquences commerciales importantes. Un développeur construisant un assistant IA professionnel n’est pas soumis aux Mesures intérimaires. Un développeur construisant une application où les utilisateurs forment des relations émotionnelles continues avec des personas IA — catégorie en forte croissance dans le bien-être mental, la lutte contre la solitude et la connexion sociale — est soumis au régime de conformité complet.
Ce que la réglementation exige réellement
Les exigences de conformité du 15 juillet se répartissent en trois catégories : enregistrement et dépôt, normes de contenu et de comportement, et mécanismes de protection des utilisateurs.
Obligations d’enregistrement et de dépôt. Tout prestataire offrant des services d’interaction émotionnelle IA continue doit effectuer trois processus bureaucratiques séparés avant d’opérer à grande échelle : le dépôt d’algorithme auprès du CAC, une évaluation de sécurité et l’enregistrement réglementaire. Le seuil déclenchant la conformité obligatoire est un million d’utilisateurs inscrits OU 100 000 utilisateurs actifs mensuels. Selon le texte réglementaire du CAC traduit par China Law Translate, les prestataires doivent soumettre des rapports d’évaluation de sécurité aux bureaux CAC de niveau provincial lorsque l’un des déclencheurs suivants est atteint : mise en ligne pour la première fois, changements technologiques qui « causent probablement des changements majeurs », ou atteinte des seuils d’utilisateurs.
Normes de contenu et de comportement. Les Mesures intérimaires interdisent cinq catégories de comportements de compagnon IA : les fausses promesses affectant sérieusement les décisions des utilisateurs ; les services qui endommagent les relations sociales réelles des utilisateurs ; le contenu encourageant l’automutilation ou les abus verbaux ; la manipulation émotionnelle ; et la fourniture de services de type « compagnon virtuel » ou « parent virtuel » aux mineurs. Cette dernière interdiction est absolue.
Mandats de transparence. Les prestataires doivent divulguer clairement la nature artificielle des interactions IA. Pour les applications de compagnons construites sur la prémisse d’une intimité conversationnelle réaliste, cette exigence crée une vraie tension dans la conception du produit.
Publicité
Ce que les équipes produit et les responsables conformité doivent faire maintenant
1. Classifier votre produit selon le test de « l’interaction émotionnelle continue » avant le 15 juillet
L’action immédiate la plus importante pour toute équipe avec des produits IA servant des utilisateurs chinois est un audit de classification juridique : le produit répond-il au standard de « l’interaction émotionnelle continue » ? Si le produit est conçu pour simuler une relation continue — mémoriser des détails personnels, exprimer du souci, fournir un soutien émotionnel entre les sessions — il entre dans le champ d’application.
Si le produit entre dans le champ d’application, la date limite de conformité est le 15 juillet 2026. Le dépôt d’algorithme et les soumissions d’évaluation de sécurité prennent 4 à 8 semaines en temps normal ; avec la date limite qui approche, les soumissions auraient dû avoir été déposées. Les équipes qui n’ont pas commencé doivent chercher un conseil juridique spécialisé en réglementation chinoise immédiatement.
2. Intégrer la couche de protection des mineurs dans l’architecture centrale, pas comme option configurable
L’interdiction de fournir des services de compagnons virtuels aux mineurs est absolue en vertu des Mesures intérimaires. Cette exigence ne peut pas être traitée comme une fonctionnalité configurable à activer/désactiver par marché — elle doit être intégrée dans l’architecture centrale du produit comme garde-fou non négociable.
Au-delà de la Chine, des exigences de protection des mineurs pour les services de compagnons IA sont actives en Californie (SB 243), en cours de développement au niveau de l’UE, et implicitement soutenues par l’approche d’application de la FTC. Construire l’architecture une seule fois, robustement, est plus efficace que les adaptations pays par pays.
3. Redessiner les mécanismes de transparence pour une divulgation dans le flux, pas une divulgation post-facto
Le mandat de transparence chinois exige que la nature artificielle des interactions IA soit clairement divulguée. « Clairement divulguée » signifie en pratique une divulgation dans le flux aux moments clés : au début de chaque session, lorsque l’IA exprime de la sollicitude ou une préoccupation émotionnelle, et lorsque les utilisateurs semblent prendre des décisions basées sur les réponses de l’IA.
Il s’agit d’un défi UX significatif pour les applications de compagnons construites sur une conception d’interaction immersive et réaliste. La solution n’est pas de briser l’interaction avec des avertissements brutaux mais d’intégrer la divulgation naturellement — d’une manière qui soit authentique à l’expérience du produit tout en satisfaisant l’exigence réglementaire.
La vision d’ensemble
La réglementation chinoise sur les compagnons IA est le premier cadre de conformité complet ciblant spécifiquement la relation émotionnelle entre les utilisateurs et les systèmes IA. Elle ne sera probablement pas la dernière. Comme le note l’analyse du bulletin IA Safety China, les mesures de juillet 2026 représentent une première étape délibérée dans une séquence réglementaire.
La trajectoire réglementaire mondiale est claire. Les dispositions de l’AI Act de l’UE sur les systèmes IA interagissant avec des populations vulnérables, les propositions GUARD Act et CHAT Act aux États-Unis, et l’Online Safety Act britannique convergent tous dans la même direction : surveillance accrue des systèmes IA qui simulent des relations humaines, surtout avec les mineurs et les adultes vulnérables. La réglementation chinoise est en avance sur les cadres occidentaux en termes de spécificité, mais les principes sous-jacents convergent globalement.
Pour les équipes produit mondiales, l’implication stratégique est de traiter les exigences de conformité chinoises non pas comme des contraintes spécifiques à un marché mais comme un aperçu de l’environnement de conformité mondial qui sera pleinement opérationnel dans 24 à 36 mois.
Questions Fréquemment Posées
Quels produits IA sont couverts par la réglementation sur les compagnons de juillet 2026 en Chine ?
La réglementation couvre les services fournissant une « interaction émotionnelle continue » — compagnons IA, amis virtuels, chatbots de soutien émotionnel, partenaires romantiques virtuels et services de soutien au deuil ou à la solitude. Elle exclut explicitement les robots de tutorat éducatif, les assistants de productivité et les autres outils IA non conçus pour un engagement relationnel continu. Le facteur déterminant est l’intention de conception.
Que se passe-t-il pour les prestataires non conformes après le 15 juillet 2026 ?
Les mesures intérimaires donnent aux bureaux CAC de niveau provincial l’autorité d’application. Les sanctions pour les prestataires non conformes incluent la suspension du service, des amendes et le retrait des plateformes de distribution d’applications. Pour les développeurs internationaux servant des utilisateurs chinois, le risque principal est le retrait de l’App Store iOS et des boutiques d’applications Android en Chine, qui répondent aux actions d’application du CAC.
En quoi cette réglementation diffère-t-elle des règles chinoises existantes sur l’IA générative de 2023 ?
Les Mesures sur les services d’IA générative de 2023 régulaient les systèmes IA en fonction de la capacité du modèle et du contenu des sorties. Les Mesures intérimaires sur les services d’interaction anthropomorphe régulent en fonction de la conception de la relation utilisateur : elles s’appliquent quelle que soit la capacité du modèle, si le service est conçu pour une interaction émotionnelle continue. Les deux réglementations peuvent s’appliquer simultanément au même produit s’il combine génération de contenu et conception de compagnon.
—
Sources et lectures complémentaires
- La Chine publie les règles sur les services IA interactifs — Mayer Brown
- Mesures provisoires sur les services d’interaction IA anthropomorphes — China Law Translate
- La Chine s’inquiète des compagnons IA — Carnegie Endowment for International Peace
- La Chine interdit les partenaires IA pour mineurs — AI Safety China
- Que contiennent les premières règles chinoises sur la dépendance aux compagnons IA ? — Geopolitechs
- AI Brief mai 2026 — TLT Insights












