Le cauchemar de la conformité

Une entreprise du Fortune 500 utilisant un outil de tri de CV alimenté par l’IA début 2026 fait face à un environnement réglementaire qui aurait été impensable trois ans plus tôt. En Illinois, l’entreprise doit notifier chaque candidat que l’IA est utilisée dans le processus de recrutement. À New York City, elle doit commander un audit annuel de biais par un tiers indépendant et en publier les résultats. En Californie, elle doit mener des tests anti-biais et conserver toutes les données pendant quatre ans. Au Colorado — en supposant que la loi entre en vigueur à sa date limite reportée — elle doit réaliser une évaluation d’impact complète avant de déployer l’outil. Et au Texas, le même outil est régi par un cadre qui place la plupart des obligations de conformité sur les agences gouvernementales tout en épargnant largement les employeurs privés de mandats prescriptifs.

Aucune loi fédérale n’harmonise ces exigences. L’EEOC a publié des orientations sur l’IA dans la sélection à l’emploi en mai 2023, mais ces orientations ont été retirées du site web de l’agence en janvier 2025 sous la nouvelle administration. Le résultat est un patchwork réglementaire si complexe que la conformité est devenue une spécialité à part entière, avec des cabinets d’avocats et des sociétés de conseil créant des départements entiers autour de la question de l’utilisation légale de l’IA dans le recrutement.

Le coût n’est pas seulement financier, bien que la charge financière soit substantielle. Le patchwork crée des incitations perverses. Certains employeurs ont répondu en restreignant l’utilisation des outils de recrutement IA aux États à réglementation minimale, créant des disparités géographiques dans les pratiques d’embauche. D’autres ont complètement abandonné le recrutement assisté par IA, revenant à des processus manuels qui sont eux-mêmes sujets aux biais que les outils IA étaient censés atténuer. Quelques-uns ont adopté la norme la plus stricte — généralement celle du Colorado — comme référence nationale, acceptant des coûts de conformité plus élevés en échange d’une simplicité opérationnelle.

Aucune de ces réponses n’est optimale. Le patchwork ne produit pas de meilleurs résultats pour les travailleurs, les employeurs ou l’intérêt public. Il produit de la confusion, des coûts et un sentiment croissant que l’approche actuelle est insoutenable.

Illinois : la divulgation et le Human Rights Act

L’Illinois est devenu l’un des premiers États à réglementer largement l’IA dans l’emploi lorsque le gouverneur J.B. Pritzker a signé le HB 3773 le 9 août 2024, amendant l’Illinois Human Rights Act pour aborder explicitement l’intelligence artificielle. L’amendement est entré pleinement en vigueur le 1er janvier 2026.

La loi fait de l’utilisation de l’IA par les employeurs d’une manière qui a pour effet de discriminer les employés sur la base de caractéristiques protégées une violation des droits civiques, même si cette discrimination est involontaire. Elle fait également de l’omission de notifier les employés de l’utilisation de l’IA dans les décisions d’emploi — incluant le recrutement, l’embauche, la promotion, le renouvellement d’emploi, la sélection pour la formation, le licenciement, la discipline et la titularisation — une violation des droits civiques. De plus, la loi interdit l’utilisation des codes postaux comme substitut des classes protégées.

L’exigence de notification semble simple, mais sa mise en œuvre a soulevé de nombreuses questions pratiques. La loi définit l’« intelligence artificielle » de manière suffisamment large pour capturer non seulement les outils de recrutement IA dédiés, mais aussi les systèmes à usage général comme les grands modèles de langage utilisés pour rédiger des offres d’emploi, filtrer des courriels ou résumer des notes d’entretien. L’Illinois Department of Human Rights a publié des projets de règles clarifiant les obligations de notification et de tenue de registres, mais les réglementations finales sont toujours en cours de finalisation.

Les employeurs doivent déterminer, pour chaque étape de leur processus de recrutement, si un outil ou système répond à la définition légale de l’IA. Ce processus d’audit s’est avéré chronophage, car de nombreuses organisations ont adopté des outils alimentés par l’IA de manière incrémentale sans suivi centralisé des systèmes utilisés et de leur localisation.

Point crucial, l’Illinois utilise un cadre d’impact disparate (disparate impact). Si un système IA produit des disparités statistiquement significatives dans les résultats entre les classes protégées, il est présomptairement discriminatoire, indépendamment de l’intention de l’employeur. L’employeur supporte la charge de démontrer que l’impact disparate est justifié par une nécessité commerciale.

Le mécanisme d’application repose sur les plaintes auprès de l’Illinois Department of Human Rights, la Human Rights Commission de l’État jouant également un rôle d’application. Les candidats ou travailleurs estimant avoir subi des violations peuvent déposer des charges administratives et, après épuisement de cette procédure, engager des poursuites privées demandant des dommages compensatoires non plafonnés, un rappel de salaire, une réintégration, des avantages perdus, des dommages moraux et des honoraires d’avocat.

Texas TRAIGA : une philosophie fondamentalement différente

Le Responsible Artificial Intelligence Governance Act (TRAIGA) du Texas, signé par le gouverneur Greg Abbott le 22 juin 2025 et entré en vigueur le 1er janvier 2026, adopte une approche de la gouvernance de l’IA philosophiquement distincte du cadre de l’Illinois. Cependant, son impact pratique sur les employeurs privés est plus limité que ne le suggéraient les projets initiaux.

Les versions antérieures de la législation, notamment le HB 1709 qui a échoué, auraient imposé des obligations significatives aux employeurs privés utilisant l’IA dans le recrutement, y compris des évaluations d’impact obligatoires. La version adoptée du TRAIGA place plutôt la plupart de ses obligations de conformité sur les agences gouvernementales et exclut les contextes commerciaux et d’emploi de nombre de ses mandats de divulgation.

Cela dit, les employeurs privés ne sont pas entièrement exemptés. Le TRAIGA interdit l’utilisation intentionnelle de l’IA pour discriminer, et ses dispositions sur l’utilisation abusive des données biométriques s’appliquent toujours. La distinction clé par rapport à l’Illinois est la norme d’intention : pour établir une violation, un plaignant doit généralement démontrer une intention discriminatoire ou un manquement délibéré à remédier à des résultats discriminatoires connus, plutôt que de s’appuyer uniquement sur des disparités statistiques.

Le TRAIGA fournit également une défense affirmative importante. Les employeurs qui démontrent une conformité substantielle avec le NIST AI Risk Management Framework ou des cadres reconnus similaires disposent d’une défense légale contre les actions d’application. Cela offre aux employeurs un parcours de conformité relativement clair — aligner la gouvernance de l’IA sur les normes NIST et documenter cet alignement.

L’approche texane reflète un choix politique délibéré de privilégier l’innovation et la flexibilité des employeurs par rapport à une réglementation prescriptive. Les partisans soutiennent que le cadre fondé sur l’intention évite de pénaliser les employeurs pour des schémas statistiques qui peuvent refléter des inégalités sociétales préexistantes plutôt qu’un biais algorithmique. Les critiques soutiennent qu’il immunise effectivement la discrimination par IA tant que les employeurs évitent d’exprimer explicitement des intentions discriminatoires, et que les obligations centrées sur le gouvernement laissent les travailleurs du secteur privé avec nettement moins de protection que leurs homologues en Illinois ou en Californie.

Advertisement

Californie et Colorado : les normes les plus strictes

La Californie et le Colorado ont adopté les réglementations les plus exigeantes du pays en matière d’IA dans l’emploi, bien qu’elles diffèrent sur des détails significatifs.

Les exigences californiennes en matière de recrutement par IA ont été adoptées par voie réglementaire du California Civil Rights Department (CRD), avec des réglementations approuvées le 27 juin 2025 et entrées en vigueur le 1er octobre 2025. Les réglementations amendent le cadre existant du California Fair Employment and Housing Act (FEHA) et s’appliquent à tous les employeurs en Californie utilisant des systèmes de décision automatisés dans le recrutement, l’embauche et la promotion.

Les réglementations exigent des employeurs qu’ils effectuent des tests anti-biais de tout système de décision automatisé utilisé dans l’emploi. Pour se défendre contre une plainte pour discrimination, les employeurs doivent démontrer qu’ils ont effectué des tests proactifs avant et après l’adoption du système. Le CRD identifie six aspects pertinents de ces tests, incluant la qualité, l’efficacité, l’actualité et la portée des tests, les résultats et la réponse de l’employeur à ces résultats. Une seule validation au lancement est explicitement insuffisante. Toutes les données générées par les outils de recrutement IA — incluant les données des candidats, les entrées et sorties du modèle et les journaux de décision — doivent être conservées pendant au moins quatre ans. Cette exigence de conservation a des implications significatives pour les coûts de stockage des données et la conformité à la protection des données en vertu du California Consumer Privacy Act.

Le Colorado AI Act (SB 24-205) est plus large que les exigences spécifiques au recrutement de la Californie. Il s’applique à tous les « systèmes IA à haut risque », définis comme des systèmes IA qui prennent ou influencent substantiellement des décisions conséquentes dans des domaines incluant l’emploi, l’éducation, le logement, l’assurance et les services juridiques. Pour l’emploi, cela capture non seulement les outils de recrutement mais aussi les systèmes d’évaluation de la performance, les algorithmes de promotion et les modèles de risque de licenciement.

La loi du Colorado exige des développeurs et des déployeurs de systèmes IA à haut risque qu’ils réalisent des évaluations d’impact complètes évaluant l’objectif du système, ses avantages, ses risques, les pratiques de gouvernance des données, la méthodologie et les résultats des tests de biais, les mesures de transparence et les mécanismes de supervision humaine.

La date limite de conformité pour le Colorado AI Act a été une cible mouvante. Initialement fixée au 1er février 2026, le gouverneur Jared Polis a signé le SB 25B-004 en août 2025 — un projet de loi de session spéciale qui a reporté la date d’entrée en vigueur au 30 juin 2026. Le leader de la majorité au Sénat, Robert Rodriguez, avait initialement cherché à réformer la loi avec une législation de compromis mais a finalement abandonné ces efforts, déclarant qu’atteindre un consensus s’était avéré impossible. La législature du Colorado s’est réunie à nouveau en janvier 2026 avec la possibilité d’amendements supplémentaires avant l’échéance de juin, mais début 2026, les exigences substantielles restent intactes.

NYC Local Law 144 : le modèle de l’audit

La Local Law 144 de New York City, entrée en vigueur en juillet 2023, est la plus ancienne réglementation de l’IA dans le recrutement du pays et a servi de modèle pour les législations ultérieures. Son exigence centrale est un audit annuel de biais de tout outil de décision automatisé en matière d’emploi (AEDT) utilisé dans le recrutement ou la promotion à New York City.

L’audit doit être mené par un tiers indépendant et doit évaluer les ratios d’impact de l’AEDT selon les catégories de race/ethnicité et de sexe. Les résultats de l’audit doivent être publiés sur le site web de l’employeur, et un résumé doit être fourni aux candidats.

Près de trois ans après sa mise en œuvre, la Local Law 144 présente un bilan mitigé. Un audit de décembre 2025 par le bureau du New York State Comptroller, couvrant la période de juillet 2023 à juin 2025, a révélé des lacunes significatives dans l’application. Le Department of Consumer and Worker Protection (DCWP) n’a interrogé que 32 entreprises pendant la période d’audit et n’a identifié qu’un seul cas de non-conformité. Bien qu’il n’ait reçu que deux plaintes relatives aux AEDT pendant toute la période de deux ans, le DCWP n’a pas vérifié si son processus de réception des plaintes fonctionnait correctement. L’audit du Comptroller a également noté que les responsables du DCWP manquaient d’expertise technique pour évaluer l’utilisation des AEDT et n’avaient pas consulté l’Office of Technology and Innovation de la ville lors de leurs déterminations.

Les critiques identifient plusieurs faiblesses supplémentaires. La définition de l’AEDT dans la loi est plus étroite que les définitions de l’IA utilisées en Illinois et au Colorado, excluant potentiellement les systèmes IA qui influencent sans prendre directement les décisions de recrutement. La méthodologie d’audit n’est pas standardisée, entraînant des incohérences entre les auditeurs. Et l’exigence de publication n’a pas généré le mécanisme de responsabilité que les partisans avaient envisagé — le suivi et l’analyse systématiques des audits publiés restent minimaux.

Malgré ses limites, la Local Law 144 a établi le principe selon lequel les outils de recrutement algorithmiques devraient faire l’objet d’un examen régulier et indépendant. Ce principe est désormais intégré dans pratiquement chaque réglementation ultérieure de l’IA dans le recrutement.

La complication de la préemption fédérale

Le paysage déjà complexe au niveau des États est encore compliqué par l’initiative de préemption fédérale de l’administration Trump. Le 11 décembre 2025, le président Trump a signé un décret exécutif établissant un DOJ AI Litigation Task Force, qui, à partir du 10 janvier 2026, est chargé de contester devant les tribunaux fédéraux les lois étatiques sur l’IA au motif qu’elles grèvent de manière inconstitutionnelle le commerce interétatique ou sont préemptées par les réglementations fédérales.

Le décret exécutif charge également la FTC de publier une déclaration de politique d’ici mars 2026 et demande au Department of Commerce d’identifier les lois étatiques sur l’IA « contraignantes » qui entrent en conflit avec la politique fédérale. Cependant, le décret exempte expressément certaines catégories de lois étatiques sur l’IA de la préemption, notamment celles relatives à la sécurité des enfants et aux marchés publics d’IA des gouvernements étatiques.

Pour les employeurs, cela crée un dilemme stratégique. Investir massivement dans la conformité aux lois étatiques sur l’IA dans le recrutement pourrait s’avérer inutile si ces lois sont préemptées. Mais ne pas se conformer dans l’intervalle crée une exposition juridique immédiate. La plupart des avocats en droit du travail conseillent à leurs clients de se conformer aux exigences étatiques actuelles tout en suivant de près les procédures de préemption fédérale.

L’absence d’une norme fédérale complète sur l’IA dans l’emploi signifie que la préemption créerait un vide réglementaire. Le droit fédéral de la discrimination à l’emploi — principalement le Title VII du Civil Rights Act — traite de la discrimination intentionnelle et de l’impact disparate, mais il n’a pas été rédigé en tenant compte des prises de décision algorithmiques. L’EEOC a publié des orientations sur les outils de recrutement IA en mai 2023, mais ces orientations ont été retirées du site web de l’agence en janvier 2025 et n’ont de toute façon pas force de loi.

Plusieurs membres du Congrès ont introduit des législations spécifiques à l’IA dans l’emploi. Le No Robot Bosses Act (H.R. 6371), introduit en décembre 2025, interdirait aux employeurs de s’appuyer exclusivement sur des systèmes automatisés pour les décisions d’emploi et exigerait des tests pré-déploiement, une analyse annuelle de l’impact discriminatoire et des rapports publics. Le projet de loi a été renvoyé au House Education and Workforce Committee mais n’a pas progressé davantage. La perspective d’une législation fédérale complète sur l’IA dans l’emploi sous le Congrès actuel est considérée comme faible par la plupart des observateurs.

Ce que les employeurs doivent faire maintenant

En l’absence d’harmonisation fédérale, les employeurs utilisant l’IA dans le recrutement font face à un ensemble d’impératifs pratiques.

Le premier est l’inventaire exhaustif. Les organisations doivent identifier chaque système IA utilisé dans toute décision d’emploi — recrutement, promotion, évaluation de la performance, rémunération et licenciement. Cela inclut non seulement les outils RH dédiés mais aussi les systèmes IA à usage général utilisés de manière informelle par les responsables du recrutement.

Le deuxième est la cartographie juridictionnelle. Pour chaque système IA, les employeurs doivent déterminer quelles réglementations étatiques et locales s’appliquent en fonction de la localisation de l’employeur, de la localisation du candidat ou de l’employé et du lieu de travail. Cette cartographie doit être maintenue de manière dynamique à mesure que de nouvelles lois entrent en vigueur et que les lois existantes sont amendées ou potentiellement préemptées.

Le troisième est la conformité de référence. De nombreux employeurs adoptent la norme la plus stricte applicable comme référence nationale. En termes pratiques, cela signifie réaliser des évaluations d’impact de type Colorado, mettre en œuvre des divulgations de type Illinois, effectuer des tests anti-biais de type Californie avec une conservation des données de quatre ans, et publier des résultats d’audit de type NYC.

Cette approche est coûteuse mais défendable. Elle fournit un cadre cohérent qui peut être ajusté à mesure que le paysage réglementaire évolue, et elle démontre des efforts de conformité de bonne foi qui peuvent être pertinents dans les procédures d’application ou les litiges.

Le paysage réglementaire de l’IA dans le recrutement en 2026 est, à tous égards, fragmenté et difficile à naviguer. Il est aussi, sans doute, une conséquence inévitable d’un gouvernement fédéral qui n’a pas agi sur une technologie qui transforme les décisions d’emploi pour des millions de travailleurs. Tant que le Congrès n’adoptera pas une législation complète ou que les tribunaux ne résoudront pas la question de la préemption, les employeurs et les travailleurs devront naviguer dans un système que personne n’a conçu et que personne ne peut pleinement comprendre.

Advertisement

🧭 Radar de Décision

Dimension Évaluation
Pertinence pour l’Algérie Moyenne — Le code du travail algérien n’aborde pas le recrutement algorithmique, mais les employeurs multinationaux opérant en Algérie et les entreprises algériennes adoptant des plateformes RH mondiales seront soumis aux exigences de conformité en amont de ces lois
Infrastructure prête ? Non — L’Algérie manque de cadres réglementaires pour l’IA dans l’emploi, aucun écosystème d’audit de biais n’existe et le Ministère du Travail n’a pas émis de directives sur les outils de recrutement algorithmiques
Compétences disponibles ? Non — L’Algérie possède une expertise minimale en audit d’équité de l’IA, en tests de biais algorithmiques ou en conformité spécifique à l’IA dans l’emploi ; les universités ne produisent pas encore de diplômés dans ces spécialisations
Calendrier d’action 12-24 mois — Surveiller les évolutions réglementaires américaines et européennes ; commencer à évaluer l’utilisation des outils IA dans les départements RH algériens, en particulier chez les multinationales et les grandes entreprises publiques
Parties prenantes clés Ministère du Travail, de l’Emploi et de la Sécurité Sociale ; ANEM (agence nationale de l’emploi) ; départements RH de Sonatrach, Sonelgaz et autres grands employeurs ; entreprises multinationales opérant en Algérie ; startups algériennes développant des outils RH
Type de décision Éducatif / Veille

Sources et lectures complémentaires