IA & AutomatisationCybersécuritéCloudCompétencesPolitiqueStartupsÉconomie Numérique

La surveillance par IA au travail : la résistance mondiale contre le monitoring des employés

février 24, 2026

AI workplace surveillance employee monitoring office

Votre employeur vous observe. La question est : jusqu’où ?

Le passage au travail à distance déclenché par la pandémie a provoqué une explosion des logiciels de surveillance des employés. Une étude de Gartner a révélé que le nombre de grands employeurs utilisant des outils de suivi numérique a doublé depuis le début de la pandémie, passant d’environ 30 % à 60 %, avec une projection de 70 % dans les trois années suivantes. Début 2025, des enquêtes indépendantes ont confirmé que la tendance s’est concrétisée en avance : 76 % des entreprises nord-américaines utilisent désormais des outils de surveillance, et 74 % des employeurs américains déploient une forme de suivi en ligne, incluant la surveillance d’écran en temps réel (59 %) et les journaux de navigation web (62 %). Les outils vont du relativement anodin (suivi de badge, journaux de connexion VPN) au profondément invasif : enregistrement des frappes clavier, captures d’écran toutes les quelques minutes, surveillance de l’attention par webcam, analyse du sentiment des e-mails, et « scores de productivité » générés par IA qui évaluent les employés sur une échelle numérique.

Le marché reflète cette demande. Le marché mondial des logiciels de surveillance des employés devrait atteindre 4,5 milliards de dollars d’ici 2026, avec une demande de surveillance cloud en hausse de 28 % en glissement annuel. ActivTrak, Teramind, Hubstaff, Time Doctor et Veriato servent collectivement des dizaines de milliers de clients entreprises, ActivTrak et Teramind détenant à eux seuls plus de 30 % du marché mondial. La fonctionnalité Productivity Score de Microsoft, qui offrait aux managers l’accès à 73 points de données granulaires sur le comportement individuel des employés au sein de Microsoft 365, a suscité suffisamment de réactions fin 2020 pour que Jared Spataro, vice-président de Microsoft 365, annonce la suppression des noms d’utilisateurs individuels, en faveur de rapports agrégés et anonymisés. Mais la collecte de données sous-jacente — qui a ouvert quoi, quand, et pendant combien de temps — persiste dans la plupart des suites logicielles d’entreprise.

Ce qui a changé en 2025 et 2026, c’est la réponse réglementaire. Les interdictions de l’EU AI Act sur les pratiques d’IA prohibées, y compris la reconnaissance émotionnelle sur le lieu de travail, sont devenues applicables le 2 février 2025, avec les obligations relatives aux systèmes d’IA à haut risque entrant en vigueur d’ici le 2 août 2026. La loi chinoise sur la protection des informations personnelles (PIPL) établit plusieurs bases juridiques pour le traitement des données des employés, incluant des exigences de consentement pour la surveillance biométrique. Et aux États-Unis, où la réglementation fédérale reste minimale, la législation au niveau des États (Californie, New York, Illinois) commence à encadrer ce que les employeurs peuvent collecter et comment ils peuvent l’utiliser.


L’arsenal de surveillance : ce que font réellement les outils

La surveillance moderne des employés opère sur plusieurs couches. Au niveau de base, des agents de surveillance de terminaux installés sur les ordinateurs portables de l’entreprise suivent l’utilisation des applications, les visites de sites web, le temps actif versus inactif, et les transferts de fichiers. Ces outils sont commercialisés principalement pour la sécurité (détection d’exfiltration de données, menaces internes) mais sont régulièrement détournés pour la gestion de la productivité. En 2025, 61 % des entreprises américaines utilisent des analyses alimentées par IA spécifiquement pour mesurer la productivité ou le comportement des employés, signalant un passage de la simple journalisation à l’évaluation de performance pilotée par algorithmes.

La couche intermédiaire ajoute l’analyse comportementale. Teramind et Veriato, par exemple, utilisent l’apprentissage automatique (machine learning) pour établir des profils de comportement « de référence » pour chaque employé et signaler les déviations — schémas d’accès aux données inhabituels, communications atypiques avec des contacts externes, changements soudains d’horaires de travail. L’objectif déclaré est la sécurité, mais les mêmes systèmes génèrent des rapports détaillés sur les habitudes de travail individuelles auxquels les managers peuvent accéder.

Le niveau le plus invasif implique l’analyse biométrique et émotionnelle. Certains outils utilisent les flux de webcam pour détecter « l’attention » et « l’engagement » — si un employé semble regarder son écran, ses expressions faciales lors de visioconférences, voire sa posture. Teleperformance, l’un des plus grands opérateurs de centres d’appels au monde avec environ 500 000 employés et plus de 10 milliards d’euros de chiffre d’affaires annuel, a fait l’objet d’un examen public en 2022 pour avoir déployé une IA de détection des émotions surveillant le ton et l’humeur des agents pendant les appels clients. Les systèmes de surveillance des entrepôts d’Amazon, qui suivent les mouvements des travailleurs et le « temps hors tâche » à la seconde près, ont été liés à des taux de blessures nettement supérieurs à la moyenne du secteur : les travailleurs des entrepôts Amazon subissent des blessures graves à un taux 2,6 fois supérieur à celui des entrepôts non-Amazon, et une enquête de 2024 de l’Université de l’Illinois à Chicago a révélé que 41 % des travailleurs Amazon ont déclaré avoir été blessés au travail. Une enquête du Sénat américain en 2025 a approfondi la crise des blessures en entrepôt.

Le scoring de productivité agrège ces signaux en une seule métrique. Un employé peut recevoir un score quotidien basé sur les heures de temps d’écran actif, le nombre d’e-mails envoyés, les réunions auxquelles il a assisté, les documents modifiés, et le temps passé dans des applications « productives » versus « non productives » (l’employeur définissant lesquelles). La nature réductrice de ces scores — compresser un travail intellectuel complexe en un chiffre — a suscité des critiques de la part de psychologues organisationnels et d’économistes du travail.

Une nouvelle dimension est apparue en 2025-2026 lorsque les grandes entreprises technologiques ont lié la surveillance aux mandats de retour au bureau. Amazon a commencé à suivre les scans de badges individuels via des tableaux de bord internes « Badge Report » montrant les jours de présence des employés sur les huit semaines précédentes. Google a mis en place un suivi similaire des badges pour la conformité au retour au bureau. Meta a intensifié la surveillance via des analyses IA et des outils de suivi enregistrant les mouvements et la production des employés en temps réel. La convergence entre l’application du retour au bureau et la surveillance numérique représente une escalade significative des normes de surveillance en milieu professionnel.


Advertisement

Le déficit de preuves : le monitoring fonctionne-t-il vraiment ?

Le constat le plus frappant des recherches sur la surveillance des employés est la faiblesse des preuves qu’elle améliore la productivité. Une méta-analyse de 2023 par Ravid et al., publiée dans Personnel Psychology, n’a trouvé aucune preuve que la surveillance électronique des performances améliore la performance des travailleurs, tout en confirmant que la surveillance est associée à un stress accru, quelle que soit la manière dont elle est mise en œuvre. Des recherches antérieures avaient documenté que la surveillance électronique peut augmenter l’achèvement des tâches pour le travail routinier et facilement mesurable, mais diminue la performance pour les tâches créatives et complexes. Les travailleurs qui savent qu’ils sont surveillés adoptent une « activité performative » — mouvements de souris artificiels, envoi d’e-mails inutiles, participation à des réunions facultatives — qui gonfle les métriques de surveillance tout en réduisant la production réelle.

Les recherches de la Harvard Business School par Ethan Bernstein ont documenté le « paradoxe de la transparence » : les travailleurs qui se sentent observés deviennent en réalité moins transparents, dissimulant les problèmes au lieu de les signaler, prenant moins de risques et adoptant des comportements plus défensifs. Les recherches de terrain de Bernstein, publiées dans Administrative Science Quarterly en 2012, ont révélé que même des augmentations modestes de la confidentialité au niveau du groupe amélioraient durablement et significativement la performance de ligne. Le résultat est une organisation qui voit plus de données mais comprend moins ce qui se passe réellement.

L’érosion de la confiance est le coût caché le plus significatif. Les enquêtes de Gallup sur le lieu de travail montrent systématiquement que l’engagement des employés — le prédicteur le plus puissant de la performance organisationnelle — est fortement corrélé à l’autonomie perçue et à la confiance. Les organisations avec un engagement élevé connaissent un turnover inférieur de 51 %, selon Gallup. Les organisations qui déploient une surveillance invasive constatent souvent des améliorations de conformité à court terme suivies d’un turnover accru, d’un effort discrétionnaire réduit et d’un affaiblissement de la culture organisationnelle. Les chiffres le confirment : les employés dans des environnements à forte surveillance rapportent des niveaux de stress de 45 %, contre 28 % dans les environnements à faible surveillance, et 54 % des employés déclarent qu’ils envisageraient de démissionner si leur employeur augmentait la surveillance. Le coût de remplacement d’un travailleur qualifié (estimé à 50-200 % du salaire annuel) peut facilement dépasser les gains de productivité liés à la surveillance. Gallup estime que le faible engagement des employés — alimenté en partie par l’érosion de la confiance — coûte environ 8 900 milliards de dollars par an à l’économie mondiale.

Certaines formes de surveillance produisent des résultats clairs. La surveillance axée sur la sécurité qui détecte les véritables menaces internes ou les violations de données a une valeur évidente. Le suivi du temps à des fins de facturation (courant en droit, conseil et freelance) est largement accepté. La controverse porte sur la surveillance ambiante et continue de la manière dont les employés passent chaque minute, combinée à un scoring algorithmique de leur performance.


Le paysage réglementaire et ce qui vient ensuite

L’EU AI Act représente l’intervention réglementaire la plus conséquente. L’article 5(1)(f) interdit les systèmes d’IA qui infèrent les émotions de personnes physiques dans les contextes professionnels et éducatifs, avec des exceptions limitées pour des raisons médicales ou de sécurité (par exemple, la détection de la fatigue des pilotes). Les interdictions au titre de l’article 5 sont devenues applicables le 2 février 2025, tandis que les obligations relatives aux systèmes d’IA à haut risque utilisés dans les décisions d’emploi (recrutement, promotion, licenciement) — exigeant des évaluations de conformité, une supervision humaine et la transparence — entreront en vigueur d’ici le 2 août 2026. Les entreprises déployant des outils de surveillance interdits dans l’UE s’exposent à des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial, selon le montant le plus élevé, en vertu de l’article 99. La Commission européenne a publié un projet de lignes directrices sur la mise en œuvre des pratiques interdites en février 2025.

La loi chinoise sur la protection des informations personnelles (PIPL) établit un cadre plus nuancé qu’une simple réglementation basée sur le consentement. Les employeurs peuvent traiter les données des employés sur trois bases juridiques : le consentement de l’employé, la nécessité pour l’exécution du contrat de travail, ou la nécessité pour la gestion RH en vertu des règles de travail et des contrats collectifs. Pour les données sensibles telles que les informations biométriques — reconnaissance faciale, empreintes digitales — un consentement écrit séparé est requis. En pratique, l’application a été inégale, mais de nouvelles normes nationales sur le traitement des données personnelles sensibles (GB/T 45574-2025), effectives le 1er novembre 2025, fournissent des orientations de conformité plus claires. Ce cadre contraste avec l’approche basée sur la notification (ou sans notification) courante aux États-Unis.

Aux États-Unis, le paysage réglementaire est fragmenté mais en évolution. L’exemption des données des employés du CCPA a expiré le 1er janvier 2023, plaçant les travailleurs sous les protections de la loi, incluant les droits d’accès, de correction, de suppression et de retrait. La Local Law 144 de New York exige des audits de biais pour les outils automatisés de décision en matière d’emploi, bien qu’un audit de décembre 2025 par le contrôleur de l’État de New York ait conclu que l’application était largement inefficace, avec seulement deux plaintes reçues et un minimum d’investigation proactive. L’Illinois Biometric Information Privacy Act (BIPA) a généré des centaines de millions de dollars en règlements — plus de 206 millions de dollars en 2024 seul — contre des entreprises ayant collecté des données biométriques sans consentement, incluant des affaires emblématiques contre Clearview AI, Google et TikTok, bien que des réformes de 2024 limitant les dommages par scan aient modéré l’impact de la loi. Au niveau fédéral, la FTC a lancé un avis préalable de réglementation proposée sur la surveillance commerciale en 2022 couvrant explicitement la surveillance des employés, et le Consumer Financial Protection Bureau a émis des avertissements sur la surveillance au travail pilotée par IA, bien qu’aucun de ces efforts n’ait produit de règles définitives.

La trajectoire est vers plus de réglementation, pas moins. À mesure que les outils de surveillance IA deviennent plus performants — analyse de sentiment en temps réel, modèles prédictifs d’attrition, évaluations de performance automatisées — l’écart entre ce que la technologie permet et ce que la loi autorise s’élargira, particulièrement dans les juridictions qui n’ont pas encore légiféré. Avec 68 % des employés s’opposant à la surveillance alimentée par IA, la pression politique en faveur de la réglementation s’intensifie. Pour les entreprises internationales, la conformité aux dispositions de l’EU AI Act relatives au lieu de travail définira probablement la norme mondiale de facto, comme le RGPD l’a fait pour la protection des données.

Advertisement


🧭 Radar de Décision (Prisme Algérien)

Dimension Évaluation
Pertinence pour l’Algérie Moyenne — Le droit du travail algérien ne traite pas encore de la surveillance IA, mais les multinationales opérant en Algérie et le secteur technologique en croissance seront confrontés à ces questions
Infrastructure prête ? Oui — Les outils de surveillance sont basés sur le cloud et déployables partout, faisant de ceci une question de politique et de gouvernance plutôt que d’infrastructure
Compétences disponibles ? Partiel — Les professionnels RH et juridiques ont besoin de formation sur les implications de la surveillance IA ; la capacité de déploiement technique existe
Calendrier d’action 12-24 mois
Parties prenantes clés Directeurs RH, départements juridiques, Ministère du Travail, UGTA (syndicats), employeurs multinationaux opérant en Algérie
Type de décision Veille

En bref : Les employeurs algériens devraient résister à la tentation d’adopter des outils de surveillance invasifs sans preuves claires de retour sur investissement. La tendance mondiale est à la réglementation et à la restriction. Les entreprises qui construisent des cultures de performance basées sur la confiance maintenant éviteront des revirements de politique coûteux plus tard. Les responsables RH devraient suivre l’application de l’EU AI Act comme un aperçu de la direction que prennent les normes mondiales.

Sources et lectures complémentaires

Laisser un commentaire

Advertisement