Des caméras reconnaissent votre visage. Elles le comparent à une base de données. Elles vous signalent ou vous valident en quelques millisecondes. L’ensemble du processus se déroule à votre insu, sans votre consentement, sans même que vous ayez conscience de ce qui vient de se passer. Pendant des années, la reconnaissance faciale a fonctionné dans cette zone grise juridique — suffisamment puissante pour remodeler les forces de l’ordre et la sécurité publique, mais largement non réglementée. Cette époque touche à sa fin, de façon inégale, et avec des conclusions très différentes selon l’endroit où l’on vit.
Le monde en 2026 se divise en camps distincts : ceux qui imposent des interdictions strictes, ceux qui construisent des règles fragmentées, ceux qui étendent l’usage de manière agressive, et ceux qui n’ont aucune règle. Cette divergence a des conséquences considérables pour les libertés civiles, pour les entreprises technologiques, et pour tout pays pris entre deux.
L’UE trace la ligne la plus dure
L’EU AI Act de l’Union européenne, entré pleinement en vigueur en 2025 et imposant des obligations contraignantes en 2026, contient l’une des interdictions les plus significatives de l’histoire de la technologie de surveillance. L’identification biométrique à distance en temps réel — le scanning en direct de visages dans des espaces publics comparés à des bases de données policières — est, à quelques exceptions près, interdite dans l’ensemble des États membres de l’UE.
Les exceptions sont délibérément restrictives. Les autorités ne peuvent déployer la reconnaissance faciale en temps réel que dans le cadre de recherches ciblées de victimes de crimes graves spécifiques, de prévention de menaces terroristes précises, ou d’identification de suspects dans des affaires punissables d’au moins trois ans d’emprisonnement — et uniquement avec une autorisation judiciaire ou administrative indépendante préalable. L’usage rétrospectif (appliquer la reconnaissance faciale à des images enregistrées après les faits) est autorisé pour une gamme plus large d’investigations sur des crimes graves, mais requiert toujours une autorisation.
L’effet concret : les forces de police de 27 pays ne peuvent plus exploiter les systèmes de scanning facial en direct qui s’étaient répandus dans les transports publics, les stades et les centres commerciaux. Plusieurs déploiements — notamment des pilotes controversés dans des gares ferroviaires allemandes — ont été stoppés ou placés sous examen juridique.
Les exigences du RGPD s’ajoutent aux interdictions de l’EU AI Act. Les données biométriques sont classées comme données de « catégorie spéciale » nécessitant un consentement explicite — une norme fondamentalement incompatible avec le scanning de masse de passants non consentants.
Les États-Unis : aucun socle fédéral, un chaos local
Les États-Unis ont produit presque l’effet inverse : aucun cadre fédéral, et un patchwork chaotique de règles municipales et étatiques qui génère des casse-têtes de conformité pour toute entreprise opérant à l’échelle nationale.
L’interdiction de San Francisco en 2019 sur l’utilisation de la reconnaissance faciale par les agences municipales est parmi les plus citées, mais elle ne s’applique qu’aux services de la ville — pas aux autorités fédérales opérant à San Francisco, pas aux entreprises privées, pas aux propriétaires. Le Biometric Information Privacy Act (BIPA) de Chicago est plus large : il exige un consentement écrit et éclairé avant qu’une entité privée collecte des données biométriques auprès de résidents de l’Illinois, et permet des recours collectifs avec dommages et intérêts légaux. BIPA a généré plus d’un milliard de dollars de règlements depuis son adoption.
D’autres États ont suivi avec des règles variées. Le Texas et l’État de Washington ont leurs propres lois sur la confidentialité des données biométriques. Une poignée de villes — Somerville, Portland, Boston — ont adopté des interdictions pour les usages gouvernementaux. Pendant ce temps, les agences fédérales — FBI, ICE, TSA, et Customs and Border Protection — exploitent des programmes de reconnaissance faciale dans les aéroports, aux frontières terrestres et pour les enquêtes criminelles avec des contraintes législatives minimales.
Le résultat est prévisible : la reconnaissance faciale est simultanément interdite et déployée de façon agressive dans le même pays, parfois dans la même ville. Les forces de l’ordre fédérales et la sécurité nationale avancent ; la police locale dans les juridictions d’interdiction contourne les restrictions en accédant aux bases de données étatiques ou fédérales ; et les entreprises privées naviguent dans une carte de conformité qui change d’État en État, de mois en mois.
Le Congrès a introduit plusieurs projets de loi fédéraux sur la confidentialité biométrique. Aucun n’a été adopté.
La Chine : obligatoire, en expansion, codifié par la loi
La Chine a emprunté la voie opposée. La reconnaissance faciale n’est pas seulement permise — elle est obligatoire dans un nombre croissant d’espaces publics, intégrée à l’infrastructure de gouvernance numérique plus large, déployée dans les transports en commun, les résidences, les écoles et les lieux de travail. La technologie sous-tend à la fois les opérations des forces de l’ordre et les fonctions administratives courantes.
Des réglementations chinoises introduites en 2021 et étendues dans les années suivantes imposent quelques règles sur la collecte et le stockage — interdisant la collecte inutile et exigeant une notification dans certains contextes — mais ces règles sont appliquées de façon sélective et ne contraignent pas de manière significative l’usage par l’État. Le cadre juridique est conçu pour gouverner les excès du secteur privé, non pour limiter la surveillance gouvernementale.
Les systèmes de reconnaissance faciale chinois, développés par des entreprises comme Hikvision, Dahua et SenseTime, sont également exportés à l’échelle mondiale — vers des gouvernements en Asie du Sud-Est, en Afrique et au Moyen-Orient — soulevant des inquiétudes quant à l’exportation internationale de normes de surveillance en même temps que la technologie elle-même.
L’Inde, le Moyen-Orient et des déploiements en expansion
L’Inde a déployé la reconnaissance faciale dans les aéroports via le programme DigiYatra, qui a traité plus de 200 millions de passagers en 2025, et étend la technologie aux événements publics, aux gares ferroviaires et via le Crime and Criminal Tracking Network. L’Inde ne dispose pas d’une loi dédiée à la confidentialité biométrique ; le Digital Personal Data Protection Act adopté en 2023 crée un cadre général mais laisse la reconnaissance faciale largement non encadrée sur le plan opérationnel.
Les États du Golfe présentent un profil similaire : des déploiements techniquement sophistiqués aux frontières et dans l’infrastructure des villes intelligentes, avec des cadres juridiques qui n’offrent pas de recours significatif aux citoyens. Aux EAU, en Arabie Saoudite et au Qatar, la reconnaissance faciale a été intégrée à l’infrastructure d’identité nationale avec peu de supervision indépendante.
Advertisement
Retraits d’entreprises — et retours discrets
La narrative des entreprises autour de la reconnaissance faciale a radicalement changé en 2020. Amazon a suspendu les ventes de son outil de reconnaissance faciale Rekognition aux forces de l’ordre, invoquant la nécessité d’une réglementation fédérale. IBM a quitté le secteur de la reconnaissance faciale, annonçant qu’il ne développerait ni ne vendrait plus de logiciels généraux de reconnaissance ou d’analyse faciale. Microsoft a restreint les ventes aux forces de l’ordre dans l’attente d’une législation fédérale.
Ces annonces ont été largement couvertes comme une prise de conscience du secteur technologique. La réalité en 2026 est plus nuancée. Amazon a discrètement repris les ventes aux forces de l’ordre après l’expiration de son moratoire d’un an sans loi fédérale adoptée. Le marché de la reconnaissance faciale a considérablement progressé : Clearview AI, qui a constitué une base de données de milliards d’images extraites des réseaux sociaux, a élargi sa clientèle policière à des agences de dizaines de pays malgré des défis juridiques en cours dans l’UE et en Australie. Les retraits d’entreprises étaient surtout des pauses, pas des sorties.
Le fossé de précision et le problème des biais
Au cœur du débat réglementaire se trouve une réalité technique que les régulateurs des juridictions les plus strictes citent comme justification centrale des interdictions. Les systèmes de reconnaissance faciale fonctionnent de façon inégale selon les groupes démographiques. Des études de la chercheuse du MIT Media Lab Joy Buolamwini et des audits ultérieurs du National Institute of Standards and Technology (NIST) ont documenté des taux d’erreur significativement plus élevés pour les femmes à la peau plus foncée par rapport aux hommes à la peau plus claire — dans certains systèmes, des taux de faux positifs différant d’un facteur de dix ou plus.
Les conséquences de ces erreurs ne sont pas symétriques. Une fausse correspondance dans un contexte policier peut signifier une détention injustifiée. Plusieurs cas documentés aux États-Unis — Robert Williams, Porcha Woodruff, et d’autres — ont impliqué des arrestations injustifiées basées sur des erreurs de reconnaissance faciale. Dans chaque cas, la personne mal identifiée était noire.
L’interdiction de l’usage en temps réel par l’EU AI Act reflète en partie ce problème de précision documenté. L’argument : une technologie présentant des taux d’erreur connus et démographiquement biaisés ne devrait pas opérer dans des contextes policiers à enjeux élevés sans seuils de précision significatifs, exigences d’audit et mécanismes de vérification humaine que la plupart des juridictions n’ont pas établis.
Un monde sans standard commun
La divergence en 2026 n’est pas un échec de coordination temporaire. Elle reflète des systèmes de valeurs genuinement différents — culture européenne de protection des données contre structure juridique fédéraliste américaine contre intégration de la surveillance d’État chinoise contre lacunes de capacité institutionnelle dans le monde en développement. Ces systèmes sont peu susceptibles de converger.
Pour les entreprises technologiques, la divergence crée une complexité de conformité qui nécessite de plus en plus de construire des produits et politiques spécifiques à chaque juridiction. Pour les gouvernements, elle crée un marché de fournisseurs de technologie de surveillance opérant sous des contraintes éthiques très variables. Pour les citoyens, elle signifie que la mesure dans laquelle votre visage devient un instrument de surveillance dépend presque entièrement de votre localisation géographique.
Advertisement
🧭 Radar de Décision (Prisme Algérie)
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Élevée — les forces de sécurité algériennes utilisent des technologies de surveillance ; les citoyens algériens font face à des collectes de données biométriques sans protections juridiques robustes |
| Infrastructure prête ? | Partielle — reconnaissance faciale déployée aux frontières et lors de certains événements ; cadre juridique absent |
| Compétences disponibles ? | Faibles — expertise en droit de la vie privée et en audit biométrique très rare |
| Calendrier d’action | 6-12 mois |
| Parties prenantes clés | DRS, ARPCE, ministère de l’Intérieur, équivalent CNIL (non encore établi), société civile |
| Type de décision | Stratégique |
En bref : L’Algérie manque d’un cadre global de confidentialité biométrique — alors que les normes européennes deviennent le socle mondial de référence, établir des règles claires sur l’usage de la reconnaissance faciale (en particulier par les forces de l’ordre) protège à la fois les citoyens et les partenariats commerciaux internationaux.
Sources et lectures complémentaires
- EU AI Act (Règlement 2024/1689) — Journal officiel de l’Union européenne
- NIST Face Recognition Vendor Test : effets démographiques — NIST
- Arrêté à tort par la reconnaissance faciale — ACLU
- Le patchwork américain des lois sur la reconnaissance faciale — Brookings Institution
- Amazon met fin au moratoire sur l’usage policier de la reconnaissance faciale — The Guardian
- Comprendre la technologie de reconnaissance faciale — Privacy International





Advertisement