Pourquoi ce traité diffère de tout ce qui a précédé
Depuis 2019, le monde a accumulé des dizaines de cadres de gouvernance de l’IA : les Principes d’IA de l’OCDE, la Recommandation sur l’éthique de l’IA de l’UNESCO, le Processus de Hiroshima du G7, le Décret exécutif américain sur l’IA, et la loi IA UE elle-même. Ce que tous partagent — à l’exception de la loi IA UE — c’est leur caractère non contraignant. Ils établissent des principes communs, mais ne peuvent créer d’obligations légales sur les États signataires ou leurs institutions domestiques.
La Convention-Cadre du Conseil de l’Europe sur l’intelligence artificielle (formellement CETS n° 225) est fondamentalement différente. Ouverte à la signature le 5 septembre 2024, c’est le premier traité international sur l’IA qui crée des obligations juridiquement contraignantes sur les pays qui le ratifient. Quand le Parlement européen a voté le 11 mars 2026 pour ratifier la convention et autoriser l’UE à la conclure en tant que bloc, il a déclenché un processus qui obligera les 27 États membres de l’UE — plus les 50+ autres signataires — à aligner leurs systèmes nationaux de gouvernance de l’IA sur les exigences de la convention.
Ces exigences sont substantielles. La convention impose que « les activités tout au long du cycle de vie des systèmes d’intelligence artificielle » s’alignent sur les normes des droits de l’homme et les principes démocratiques. Elle établit des obligations pour :
- Les évaluations de risques avant de déployer des systèmes d’IA susceptibles d’affecter les droits fondamentaux
- Les mécanismes de transparence pour que les personnes concernées comprennent comment les décisions d’IA sont prises
- Les structures de responsabilité désignant la responsabilité des résultats des systèmes d’IA
- Les protections contre la non-discrimination dans toutes les décisions gouvernées par l’IA
- Le droit de contester les décisions prises par des systèmes d’IA — une protection procédurale que la plupart des cadres existants n’ont pas codifiée
Qui a signé et ce que cela signifie
La liste des signataires est géographiquement plus large que tout instrument de gouvernance de l’IA précédent. Au début 2026, les signataires comprennent l’UE (en bloc), le Canada, le Royaume-Uni, les États-Unis, le Japon, la Norvège, l’Islande, la Suisse, l’Ukraine et l’Uruguay, parmi d’autres — plus de 50 parties adhérentes au total. Ce n’est pas un instrument purement européen ; c’est le premier cadre de gouvernance de l’IA à couvrir les grandes économies démocratiques sur quatre continents.
L’étendue importe pour une raison spécifique : la fragmentation réglementaire de l’IA a été le principal moteur des coûts de conformité pour les entreprises technologiques multinationales. Une entreprise déployant l’IA dans les soins de santé dans cinq juridictions navigue actuellement à travers cinq cadres différents d’évaluation des risques, cinq exigences de transparence différentes et cinq régimes de responsabilité différents. La Convention-Cadre crée une base commune — une norme minimale que toutes les juridictions signataires doivent mettre en œuvre. Les entreprises qui construisent leurs programmes de gouvernance de l’IA pour répondre aux exigences de la convention trouveront la conformité dans toute juridiction signataire nettement moins complexe.
L’image des non-signataires est tout aussi importante. La Chine, l’Inde, la Russie et le Brésil n’ont pas signé. Cela crée une fracture de gouvernance que les chercheurs ont commencé à appeler le problème de « l’alignement démocratique de l’IA » : la Convention-Cadre définit effectivement une zone de gouvernance de l’IA fondée sur les droits de l’homme et les principes de responsabilité, distincte des régimes de déploiement de l’IA dans les États non signataires.
Publicité
Comment la convention se rapporte à la loi IA UE
La Convention-Cadre et la loi IA UE ne sont pas le même instrument, et comprendre leur relation est essentiel pour les équipes de conformité.
La loi IA UE est sectorielle et granulaire : elle classe les systèmes d’IA par niveau de risque, impose des exigences spécifiques de conformité technique pour les systèmes à haut risque listés à l’Annexe III, exige le marquage CE et crée une base de données d’enregistrement.
La Convention-Cadre est fondée sur des principes et large : elle établit le plancher en matière de droits de l’homme et de responsabilité que les lois nationales doivent refléter. La relation est complémentaire : la loi IA UE est la façon dont l’UE met en œuvre la Convention-Cadre au niveau technique. Pour les pays non-UE qui ratifient la convention — Canada, Royaume-Uni, Japon, États-Unis — leurs lois nationales sur l’IA devront évoluer pour remplir les obligations de la convention, créant une pression de convergence qui rapprochera progressivement la réglementation internationale de l’IA de la norme européenne.
Ce que les responsables conformité et les dirigeants d’entreprise devraient faire
1. Cartographier l’inventaire IA par rapport aux obligations de la convention — pas seulement aux catégories de la loi IA UE
Les obligations de la Convention-Cadre s’appliquent à tout système d’IA déployé dans une juridiction signataire, qu’il atteigne ou non le seuil Annexe III de la loi IA UE à haut risque. Cela signifie que les systèmes d’IA classés comme « risque limité » en vertu de la loi IA UE — chatbots, moteurs de recommandation, filtres de contenu — nécessitent quand même une évaluation d’impact sur les droits de l’homme, la transparence et les droits de contestation. Les équipes de conformité qui ont délimité leurs programmes de gouvernance de l’IA exclusivement aux catégories à haut risque de la loi IA UE peuvent avoir des lacunes importantes.
2. Intégrer des mécanismes de contestation et de recours dans les flux de travail de déploiement de l’IA
Le droit de contester les décisions prises par des systèmes d’IA est l’exigence la plus contraignante sur le plan opérationnel de la convention pour la plupart des entreprises. La plupart des flux de travail actuels de déploiement de l’IA — particulièrement dans les RH, le crédit et la modération de contenu — produisent des décisions sans voies de contestation intégrées. La convention exige que les personnes concernées disposent d’un mécanisme significatif pour contester les décisions d’IA et obtenir un examen humain.
3. Traiter la convention comme la norme de gouvernance à long terme, pas la loi IA UE
Les équipes de conformité d’entreprise ont à juste titre priorisé la loi IA UE car elle a force contraignante et des échéances d’application imminentes. Mais la loi IA UE est une mise en œuvre d’une norme internationale plus large — la Convention-Cadre — qui façonnera la réglementation mondiale de l’IA pour la prochaine décennie. Les entreprises qui construisent leurs programmes de gouvernance de l’IA selon les principes de la convention (alignement sur les droits de l’homme, évaluation des risques, transparence, responsabilité, droits de contestation) seront mieux positionnées pour l’évolution réglementaire dans les juridictions signataires non-UE.
La grande image : Une zone démocratique de gouvernance de l’IA
La signification réelle de la Convention-Cadre est architecturale, pas opérationnelle. Pour la première fois, une coalition de plus de 50 nations démocratiques a créé une norme juridique commune pour la gouvernance de l’IA contraignante en droit international. Ce n’est pas un consensus de soft law — c’est un traité avec des obligations de ratification, des exigences de mise en œuvre nationale et l’appareil de surveillance institutionnel du Conseil de l’Europe.
Le paysage de gouvernance de l’IA qui en résulte n’est pas une norme mondiale unique — l’absence de la Chine, de l’Inde et de la Russie le garantit — mais c’est une zone stable de gouvernance légalement fondée qui couvre la plupart des économies démocratiques mondiales et une part significative du déploiement mondial de l’IA. Pour les entreprises, les chercheurs et les décideurs opérant dans cette zone, la convention établit le plancher à partir duquel toute réglementation future de l’IA sera mesurée.
Questions Fréquemment Posées
Quelle est la différence entre la Convention IA du Conseil de l’Europe et la loi IA UE ?
La Convention-Cadre est un traité international fondé sur des principes signé par 50+ pays qui établit le plancher en matière de droits de l’homme et de responsabilité pour la gouvernance mondiale de l’IA. La loi IA UE est la mise en œuvre technique détaillée de l’UE — elle classe les systèmes d’IA par niveau de risque, impose des exigences spécifiques de conformité pour les systèmes à haut risque de l’Annexe III et crée un mécanisme d’application à l’échelle de l’UE. La convention établit le « pourquoi » ; la loi IA UE précise le « comment » pour les États membres de l’UE. Les signataires non-UE doivent mettre en œuvre les principes de la convention par leur propre législation nationale.
La Convention-Cadre est-elle juridiquement contraignante, et que se passe-t-il si un pays ne respecte pas ses obligations ?
Oui — la Convention-Cadre est un traité international juridiquement contraignant sous l’égide du Conseil de l’Europe. Les pays qui la ratifient doivent mettre leur droit interne en conformité. Le mécanisme de surveillance du Conseil de l’Europe évaluera la mise en œuvre périodiquement. Cependant, la convention manque de mécanismes de sanction directs comparables à l’application de l’UE — la conformité est principalement mise en œuvre par les tribunaux nationaux, les processus d’examen par les pairs et les conséquences réputationnelles de la non-mise en œuvre.
Quelles grandes nations déployant l’IA n’ont PAS signé, et cela crée-t-il une lacune de gouvernance ?
La Chine, l’Inde, la Russie et le Brésil sont les non-signataires les plus significatifs. Leur absence signifie que la Convention-Cadre gouverne une « zone d’alignement démocratique de l’IA » mais pas le déploiement mondial de l’IA de manière exhaustive. Cette lacune de gouvernance est le défi central que le Dialogue Mondial des Nations Unies sur la Gouvernance de l’IA (prévu pour juillet 2026 à Genève) tente d’aborder.
—
Sources et lectures complémentaires
- Le Parlement européen soutient la conclusion par l’UE de la Convention-Cadre du Conseil de l’Europe sur l’IA — Conseil de l’Europe
- L’UE endosse le premier traité international sur la gouvernance de l’IA — FEBIS
- Convention-Cadre sur l’intelligence artificielle — Wikipédia
- Rapport de la commission du Parlement européen sur la ratification de la convention IA — Parlement européen













