Un virage déréglementaire
Le 6 janvier 2026, la Food and Drug Administration (FDA) américaine a publié deux documents d’orientation finaux révisés qui représentent le changement le plus significatif de la réglementation des dispositifs médicaux IA de ces dernières années. Ces orientations retirent de fait la surveillance de la FDA sur deux catégories en pleine expansion de technologies de santé alimentées par l’IA : les logiciels d’aide à la décision clinique (CDS) et les objets connectés grand public.
Le calendrier n’est pas fortuit. Le virage déréglementaire de la FDA s’inscrit dans la philosophie réglementaire plus large de l’administration actuelle, qui a fait de la réduction des barrières bureaucratiques à l’innovation technologique une priorité. Le commissaire de la FDA, le Dr Marty Makary, a annoncé ce changement lors d’une interview sur Fox Business le même jour, soulignant l’intention de l’agence d’assouplir et de clarifier son contrôle dans le domaine du bien-être et de la santé numérique. Mais les implications vont bien au-delà de l’idéologie politique. Ces orientations redéfinissent fondamentalement quels systèmes d’IA la FDA considère comme des « dispositifs médicaux » soumis à son autorité réglementaire, retirant potentiellement la surveillance d’outils qui influencent directement les décisions cliniques et les comportements de santé des consommateurs.
Pour l’industrie medtech — où les entreprises utilisant l’IA ont capté 62 % des investissements en capital-risque dans la santé numérique en 2025, totalisant près de 4 milliards de dollars — ces orientations sont largement bien accueillies. Les entreprises qui ont passé des années à naviguer dans le processus d’examen préalable à la mise sur le marché de la FDA pour les dispositifs IA découvrent que certains de leurs produits pourraient ne plus nécessiter d’examen du tout. Les nouveaux entrants sur le marché font face à des barrières réduites, accélérant potentiellement l’innovation et la concurrence.
Pour les défenseurs de la sécurité des patients, ces orientations soulèvent de profondes inquiétudes. Les catégories de systèmes d’IA déréglementées ne sont pas des applications anodines — elles incluent des outils qui recommandent des options de traitement aux médecins et surveillent les signes vitaux des consommateurs. Retirer ces outils de la surveillance de la FDA signifie qu’aucune agence fédérale n’évaluera systématiquement leur sécurité, leur précision ou leur fiabilité avant leur mise sur le marché.
La question centrale est de savoir si la FDA a trouvé le juste équilibre entre l’encouragement de l’innovation et la protection des patients — ou si elle a trop penché du côté de l’innovation à un moment où les capacités et les limites de l’IA dans le domaine de la santé restent mal comprises.
Aide à la décision clinique : la nouvelle exemption
L’orientation révisée de la FDA concernant les logiciels CDS — remplaçant la version de 2022 — affine l’interprétation des conditions dans lesquelles les fonctions logicielles CDS sont exclues de la définition de dispositif médical en vertu de la Section 520(o)(1)(E) du Federal Food, Drug, and Cosmetic Act, telle que modifiée par le 21st Century Cures Act. Selon cette loi, un logiciel CDS n’est pas un dispositif s’il satisfait quatre critères : il n’analyse pas d’images médicales, de signaux ou de modèles provenant de dispositifs de diagnostic (critère 1) ; il affiche, analyse ou imprime des informations médicales (critère 2) ; il soutient ou fournit des recommandations à un professionnel de santé concernant la prévention, le diagnostic ou le traitement (critère 3) ; et il permet au clinicien d’examiner de manière indépendante le fondement de ces recommandations (critère 4).
Le changement le plus significatif de l’orientation 2026 concerne la position de la FDA sur les recommandations uniques. Auparavant, l’agence estimait qu’un logiciel CDS ne fournissant qu’une seule recommandation — plutôt que plusieurs options — ne pouvait pas satisfaire le critère 4, car le clinicien n’avait rien à évaluer indépendamment au-delà d’un résultat à prendre ou à laisser. L’orientation révisée renverse cette position : la FDA exercera désormais son pouvoir discrétionnaire pour les outils CDS fournissant un résultat unique lorsqu’une seule recommandation est cliniquement appropriée, à condition que l’outil satisfasse les autres critères CDS de non-dispositif. Par exemple, un logiciel qui recommande un médicament spécifique approuvé par la FDA à l’attention d’un clinicien, en se basant sur les symptômes et l’historique médical du patient, se situerait désormais hors de la classification des dispositifs.
L’orientation a également supprimé la limitation relative aux décisions urgentes du critère 3, tout en l’ajoutant comme élément du critère 4, considérant qu’un logiciel pourrait ne pas permettre un examen indépendant s’il est destiné à la prise de décision en situation d’urgence. L’effet pratique est d’exempter une catégorie plus large d’outils alimentés par l’IA qui fournissent des orientations cliniques sans traiter de données médicales complexes telles que les images, les signaux ou les informations génomiques.
Le critère de « vérifiabilité indépendante » reste le principe limitatif clé. La théorie de la FDA est que lorsqu’un professionnel de santé peut examiner et évaluer le fondement d’une recommandation IA — en examinant les mêmes données que l’IA a analysées et en appliquant son propre jugement clinique — le professionnel sert de contrôle de sécurité humain rendant l’examen réglementaire préalable à la mise sur le marché inutile.
Les critiques soutiennent que cette théorie ne tient pas compte de la réalité de la pratique clinique. La recherche sur le biais d’automatisation en santé a documenté que les cliniciens tendent à accepter les recommandations de l’IA sans évaluation critique, en particulier lorsque l’IA a un historique généralement fiable. Une étude en pathologie computationnelle a révélé un taux de biais d’automatisation de 7 %, où des évaluations initialement correctes ont été renversées par des conseils erronés de l’IA. D’autres recherches ont mis en garde contre la « déqualification » : une étude sur des gastro-entérologues utilisant des outils d’IA a montré que les praticiens devenaient moins compétents pour identifier les polypes de manière indépendante. Si le critère de « vérifiabilité indépendante » existe sur le papier mais pas dans la pratique, le fondement sécuritaire de l’exemption est fragilisé.
L’American Medical Association a adopté une position mesurée, soutenant le cadre général de l’aide à la décision clinique qui renforce l’examen par le médecin, tout en maintenant que les experts cliniques sont les mieux placés pour déterminer si les applications d’IA respectent les normes de qualité, de pertinence et de validité clinique. L’American Hospital Association a soumis une lettre à la FDA en décembre 2025 soulevant des préoccupations spécifiques concernant la portée du pouvoir discrétionnaire pour les dispositifs médicaux dotés d’IA.
Objets connectés grand public : l’exemption bien-être
L’orientation révisée de la FDA sur le bien-être général — également publiée le 6 janvier 2026 — élargit la catégorie des objets connectés éligibles au pouvoir discrétionnaire de l’agence en tant que produits de « bien-être général », les exemptant de fait de la réglementation des dispositifs médicaux.
Dans le cadre révisé, la FDA maintient son test à deux facteurs : un produit bénéficie du pouvoir discrétionnaire si son usage est exclusivement lié au bien-être général et s’il présente un faible risque pour les utilisateurs. Un « usage de bien-être général » signifie que le dispositif vise le maintien ou l’encouragement d’un état de santé général, ou concerne le rôle de choix de vie sains dans la réduction du risque ou de l’impact de certaines maladies chroniques — à condition que ce rôle soit bien compris et accepté. Le dispositif doit également être non invasif, c’est-à-dire qu’il ne doit pas percer ni pénétrer la peau.
L’expansion la plus notable concerne les mesures physiologiques. L’orientation révisée précise que les objets connectés non invasifs estimant des paramètres tels que la fréquence cardiaque, la saturation en oxygène, les habitudes de sommeil, les niveaux d’activité et même la pression artérielle peuvent être qualifiés de produits de bien-être général — à condition qu’ils ne formulent aucune allégation diagnostique spécifique à une maladie et soient commercialisés uniquement à des fins de bien-être.
Cette disposition sur la pression artérielle renverse directement la position antérieure de la FDA vis-à-vis de l’entreprise Whoop. En juillet 2025, la FDA avait adressé une lettre d’avertissement à Whoop, affirmant que sa fonction Blood Pressure Insights constituait un dispositif médical non enregistré car les mesures de pression artérielle sont « intrinsèquement associées au diagnostic de l’hypo- et de l’hypertension ». Whoop avait publiquement contesté cette lettre, arguant que sa fonctionnalité relevait d’un outil de bien-être au titre du 21st Century Cures Act. Six mois plus tard, l’orientation révisée a effectivement donné raison à Whoop : les objets connectés portés au poignet suivant des paramètres incluant la pression artérielle peuvent relever de la catégorie bien-être général, à condition d’utiliser des valeurs validées et d’éviter les allégations de qualité médicale.
La distinction entre un produit de bien-être et un dispositif médical repose désormais largement sur le langage marketing plutôt que sur les capacités fonctionnelles. Une montre connectée qui surveille le rythme cardiaque et alerte les utilisateurs d’une potentielle fibrillation auriculaire resterait sous la surveillance de la FDA, car elle prétend détecter une condition cardiaque spécifique. Mais un dispositif équipé de capteurs similaires fournissant des « informations sur la santé cardiaque » sans nommer spécifiquement une maladie pourrait être qualifié de produit de bien-être général exempt d’examen par la FDA.
Plusieurs fabricants auraient révisé leurs supports marketing pour remplacer le langage spécifique aux maladies par un langage orienté bien-être, reclassant de fait leurs dispositifs sans modifier leurs fonctionnalités. La FDA reconnaît la minceur de cette distinction mais soutient que tracer la ligne aux allégations spécifiques aux maladies est nécessaire pour éviter de réglementer une catégorie impossiblement large d’électronique grand public — des smartphones aux trackers d’activité en passant par les vêtements à capteurs intégrés.
Advertisement
Principes conjoints FDA/EMA pour l’IA
Dans un développement parallèle, la FDA s’est associée à l’Agence européenne des médicaments (EMA) pour publier 10 principes directeurs pour l’IA dans le développement de médicaments le 16 janvier 2026. Bien que ces principes traitent de l’utilisation de l’IA sur l’ensemble du cycle de vie des médicaments — de la recherche précoce et des essais cliniques à la fabrication et à la surveillance de la sécurité — plutôt que des dispositifs médicaux spécifiquement, ils représentent une convergence importante de la pensée réglementaire américaine et européenne sur la gouvernance de l’IA dans le secteur de la santé.
Les principes mettent l’accent sur la centralité de l’humain, exigeant que les systèmes d’IA soient conçus pour soutenir plutôt que remplacer le jugement humain. Ils imposent la transparence concernant l’usage prévu, les données d’entraînement, les limitations connues et les caractéristiques de performance. Ils traitent de la qualité des données, exigeant que les données d’entraînement soient représentatives des populations que l’IA servira. L’équité algorithmique fait l’objet d’une attention significative, avec des exigences d’évaluation de la performance selon les sous-groupes démographiques et de divulgation des disparités.
Les principes sont consultatifs plutôt que juridiquement contraignants, mais ils ont un poids pratique. La FDA et l’EMA ont indiqué que l’alignement sur ces principes serait pris en compte dans les décisions réglementaires. Le principe le plus significatif pourrait être l’exigence de surveillance continue de la performance — reconnaissant que les systèmes d’IA, contrairement aux dispositifs médicaux traditionnels, peuvent présenter une dérive de performance à mesure que les populations de patients, les contextes cliniques ou les distributions de données évoluent.
La portée plus large réside dans ce que ces principes révèlent sur la divergence réglementaire transatlantique en matière d’IA médicale. Tandis que la FDA dérèglemente les outils cliniques IA et les objets connectés sur le plan national, elle collabore simultanément avec l’EMA sur des cadres de gouvernance. Le AI Act de l’UE classe la plupart des dispositifs médicaux IA comme systèmes d’IA « à haut risque », nécessitant des évaluations de conformité, une gestion des risques et une surveillance post-commercialisation. L’écart grandissant entre les approches américaine et européenne crée des normes de sécurité différentes pour les patients américains et européens et fragmente potentiellement le marché mondial des dispositifs médicaux.
Les risques de la déréglementation
Le virage déréglementaire de la FDA comporte plusieurs risques identifiables qui deviendront probablement plus apparents à mesure que les nouvelles orientations entreront en vigueur.
Le premier risque est celui des lacunes en matière de sécurité. Les systèmes d’IA exemptés de l’examen de la FDA ne feront l’objet d’aucune évaluation systématique de leur précision, de leur fiabilité ou de leur potentiel de nuisance. La FDA a autorisé plus de 1 000 dispositifs médicaux dotés d’IA depuis 1995, dont 258 autorisés en 2025 — un record dans l’histoire de l’agence. À mesure que le pouvoir discrétionnaire s’étend à davantage de dispositifs, la proportion d’outils de santé IA fonctionnant sans aucun examen préalable à la mise sur le marché augmentera. Si la FDA conserve le pouvoir d’agir contre les dispositifs causant un préjudice réel, cette approche réactive signifie que les problèmes ne sont identifiés qu’après que les patients ont été affectés.
Le deuxième risque est l’asymétrie d’information. Sans examen de la FDA, les professionnels de santé et les consommateurs doivent se fier aux allégations des fabricants concernant la performance des dispositifs IA. Le processus d’examen préalable à la mise sur le marché de la FDA, malgré ses limites, fournit une vérification indépendante des allégations de base en matière de sécurité et d’efficacité. Supprimer cette vérification pour des catégories entières de dispositifs IA laisse cliniciens et patients sans source d’information fiable.
Le troisième risque est l’incertitude en matière de responsabilité. Le cadre réglementaire de la FDA a historiquement servi de référence pour les litiges en responsabilité du fait des produits. Lorsqu’un dispositif a reçu l’autorisation de la FDA, les fabricants peuvent arguer qu’ils ont respecté la norme de diligence applicable. Lorsque les dispositifs sont exemptés de l’examen de la FDA, le cadre de responsabilité devient moins clair, créant un risque contentieux qui pourrait paradoxalement décourager l’innovation plutôt que la promouvoir.
Le quatrième risque est la divergence internationale. Le AI Act de l’UE classe la plupart des dispositifs médicaux IA comme systèmes à haut risque soumis à des exigences exhaustives, incluant des évaluations de conformité, une gestion des risques et une surveillance post-commercialisation — avec des exigences de documentation technique excédant substantiellement celles de l’autorisation FDA via la voie 510(k). L’approche déréglementaire de la FDA creuse cet écart, fragmentant potentiellement le marché mondial des dispositifs médicaux et créant des régimes de sécurité différents pour les patients américains et européens.
Implications pour l’innovation medtech
Malgré les risques, les orientations de la FDA sont susceptibles d’accélérer l’innovation en matière de dispositifs médicaux IA aux États-Unis, du moins à court terme.
L’exemption CDS supprime un obstacle significatif pour les entreprises de technologies de santé développant des outils cliniques alimentés par l’IA. Le processus de notification préalable 510(k) — dans lequel la FDA s’engage à rendre une décision sur 95 % des soumissions dans un délai de 90 jours FDA — représente une barrière en termes de temps et de coût pour les développeurs de logiciels à risque modéré. Éliminer cette exigence pour les logiciels CDS exemptés permet aux entreprises de mettre leurs produits sur le marché plus rapidement et à moindre coût, tout en maintenant la voie réglementaire pour les dispositifs à plus haut risque qui analysent des images, des signaux ou des données génomiques.
L’exemption bien-être pour les objets connectés ouvre le marché des technologies de santé grand public à une gamme plus large de dispositifs alimentés par l’IA. Les entreprises qui évitaient auparavant les fonctionnalités liées à la santé pour rester hors de la juridiction de la FDA — ou qui, comme Whoop, se sont heurtées à la position antérieure de l’agence — peuvent désormais intégrer des capacités de surveillance de santé par IA tant qu’elles maintiennent un marketing orienté bien-être.
L’investissement en capital-risque dans la santé numérique est en hausse. En 2025, le financement de la santé numérique a augmenté significativement par rapport à l’année précédente, les startups utilisant l’IA levant en moyenne 34,4 millions de dollars par tour — une prime de 83 % par rapport à leurs homologues sans IA. La délimitation plus claire de la FDA entre les dispositifs nécessitant un examen et ceux qui n’en nécessitent pas réduit davantage l’incertitude réglementaire, rendant le secteur plus attractif pour les investisseurs.
Toutefois, les bénéfices en termes d’innovation doivent être mis en balance avec les risques d’un marché moins réglementé. L’expérience déréglementaire de la FDA avec les dispositifs médicaux IA sera in fine jugée sur ses résultats — si l’innovation qu’elle permet produit un bénéfice net pour les patients ou si les lacunes de sécurité qu’elle crée entraînent des préjudices évitables. Les données générées au cours des deux à trois prochaines années — incluant les rapports d’événements indésirables, les études de résultats cliniques et les données de surveillance post-commercialisation — détermineront si le virage de 2026 de la FDA deviendra un élément permanent du paysage réglementaire ou un avertissement sur les limites de la déréglementation en santé.
Advertisement
🧭 Radar de Décision
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — La réglementation algérienne des dispositifs médicaux suit un système de classification de type européen (Classes I-IIb-III) supervisé par l’ANPP. Bien que le système de santé algérien n’adopte pas directement les orientations de la FDA, les dispositifs de santé IA et les objets connectés fabriqués aux États-Unis et importés en Algérie refléteront ces normes plus souples, et les tendances mondiales de la medtech façonnent ce qui arrive sur le marché algérien. |
| Infrastructure prête ? | Non — L’Algérie ne dispose pas de capacité de développement national de dispositifs médicaux IA. L’ANPP ne possède pas de cadres d’évaluation spécifiques à l’IA, et les hôpitaux ont une infrastructure limitée pour déployer des systèmes d’aide à la décision clinique IA à grande échelle. |
| Compétences disponibles ? | Partiellement — L’Algérie dispose de cliniciens formés capables d’utiliser des outils CDS, mais manque d’expertise réglementaire en évaluation de dispositifs médicaux IA et en surveillance post-commercialisation pour les dispositifs logiciels. |
| Horizon d’action | 12-24 mois — Aucune action réglementaire immédiate n’est requise, mais l’ANPP algérienne devrait surveiller la divergence FDA-UE et décider s’il convient d’aligner les normes d’importation sur l’approche plus stricte du AI Act de l’UE ou d’accepter les dispositifs autorisés par la FDA sous le cadre plus souple. |
| Parties prenantes clés | ANPP (Agence Nationale des Produits Pharmaceutiques), ministère de la Santé, services informatiques hospitaliers, importateurs de dispositifs médicaux, Association Médicale Algérienne |
| Type de décision | Stratégique — L’Algérie doit décider quel cadre international adopter comme référence pour les importations de dispositifs médicaux IA alors que les États-Unis et l’UE divergent. L’approche de type européen (déjà plus proche du système algérien) offre une protection renforcée des patients ; l’approche FDA offre un accès plus rapide à l’innovation. |
Sources et lectures complémentaires
- FDA Announces Sweeping Changes to Oversight of Wearables, AI-Enabled Devices — STAT News
- 5 Key Takeaways from FDA’s Revised CDS Software Guidance — Covington & Burling
- Key Updates in FDA’s 2026 General Wellness and CDS Guidance — Faegre Drinker
- FDA AI-Enabled Medical Devices Database — FDA
- EMA and FDA Set Common Principles for AI in Medicine Development — EMA
- Digital Health Policy: FDA Relaxes Restrictions Over Wearables and AI — National Law Review





Advertisement