En 2023, un ingénieur de Samsung a collé du code source propriétaire dans ChatGPT pour l’aider à déboguer un problème. Le code — contenant des spécifications de fabrication de semi-conducteurs — a été traité par les serveurs d’OpenAI, potentiellement utilisé comme données d’entraînement, et transmis de fait hors du périmètre de sécurité de l’entreprise. Samsung a interdit les outils d’IA générative à l’échelle de l’entreprise dans les semaines suivant l’incident. Les dégâts étaient déjà faits.

Cet incident n’était pas une anomalie. C’était le premier cas largement médiatisé d’un phénomène qui est devenu l’un des défis de sécurité d’entreprise les plus déterminants de 2026 : le shadow AI.

Qu’est-ce que le Shadow AI ?

Le shadow AI désigne l’utilisation non autorisée d’outils d’intelligence artificielle — en particulier les systèmes d’IA générative comme ChatGPT, Claude, Gemini et Microsoft Copilot — par des employés pour des tâches professionnelles, sans approbation IT, examen de sécurité, ni gouvernance organisationnelle.

Le terme emprunte au « shadow IT » — la pratique des employés qui utilisent des logiciels et des services cloud non approuvés pour contourner les processus d’approvisionnement IT trop lents. Le shadow AI représente le shadow IT à une nouvelle échelle : au lieu d’utiliser un outil de gestion de projet non approuvé, les employés alimentent des systèmes d’IA externes en données confidentielles qui les traitent, les stockent, et les utilisent potentiellement pour améliorer les versions futures des modèles.

La différence est importante : les données qui quittent l’organisation ne sont pas des métadonnées ou des journaux d’utilisation — il s’agit souvent de la propriété intellectuelle la plus précieuse de l’organisation.

L’ampleur du problème

Les enquêtes sont frappantes. En 2025, plusieurs études indépendantes ont estimé entre 40 % et 65 % la proportion de travailleurs du savoir utilisant des outils d’IA générative pour des tâches professionnelles — sur des comptes personnels, sans la connaissance de leur employeur. Une analyse de Cyberhaven portant sur les mouvements de données entre les endpoints d’entreprise a révélé que les employés collaient des documents sensibles dans des outils d’IA à une fréquence dépassant tout vecteur précédent de fuite de données d’entreprise.

Quels types de données sont exposés ? Les équipes de sécurité qui ont investigué les usages de shadow AI ont documenté :

  • Code source et algorithmes propriétaires — des développeurs utilisant ChatGPT pour la complétion de code et le débogage, en soumettant des bases de code entières
  • Données clients et informations personnelles identifiables (PII) — des équipes commerciales et support collant des enregistrements clients pour rédiger des communications ou analyser des réclamations
  • Projections financières et informations sur les fusions-acquisitions — des équipes financières utilisant l’IA pour résumer des présentations au conseil d’administration ou des analyses d’acquisition
  • Données RH et d’évaluation — des managers utilisant l’IA pour rédiger des bilans de performance incluant des données confidentielles sur la rémunération ou les mesures disciplinaires
  • Contrats juridiques et documents de stratégie — des équipes juridiques utilisant l’IA pour examiner et résumer des contrats contenant des termes commerciaux sensibles
  • Dossiers de santé et données patients — du personnel clinique utilisant des outils de rédaction IA pour la documentation, incluant des informations de santé protégées

L’exposition réglementaire

Le shadow AI ne représente pas seulement un risque de réputation — il crée une responsabilité réglementaire concrète.

RGPD et lois sur la protection des données : Le transfert de données personnelles concernant des résidents de l’UE vers un système d’IA tiers sans accord de traitement des données constitue très probablement une violation de l’article 28 du RGPD. Les organisations peuvent ignorer que ce transfert a eu lieu, car aucun système IT ne l’a consigné. Des amendes allant jusqu’à 4 % du chiffre d’affaires annuel mondial s’appliquent.

Réglementations sectorielles : Les organisations de santé soumises à HIPAA aux États-Unis font face à des violations potentielles lorsque des données patients entrent dans des systèmes d’IA externes. Les services financiers s’exposent selon les règles de divulgation de la SEC, les réglementations FINRA et MiFID II dans l’UE lorsque des informations matérielles non publiques sur la stratégie de l’entreprise ou les portefeuilles clients sont transmises à l’extérieur.

Perte de propriété intellectuelle : Contrairement aux violations de données traditionnelles qui laissent des traces dans les journaux réseau, l’exposition via shadow AI peut être indétectable. Du code source collé dans un outil d’IA peut ultérieurement apparaître dans des sorties générées par l’IA pour des concurrents, sans aucune trace forensique.

Advertisement

Au-delà de Samsung : d’autres incidents réels

Samsung est le cas le plus médiatisé, mais le schéma s’est répété dans de nombreux secteurs.

Un grand cabinet de conseil en fusions-acquisitions a découvert en 2024 que des employés utilisaient un outil d’IA grand public pour résumer des analyses sur des cibles d’acquisition — des documents contenant des informations non publiques significatives. L’enquête interne a révélé que des centaines de documents avaient été soumis sur une période de trois mois.

Un cabinet d’avocats européen a constaté que des collaborateurs utilisaient régulièrement des outils d’IA gratuits pour rédiger des clauses contractuelles, en collant des extraits d’accords clients contenant des termes commerciaux hautement confidentiels.

Des prestataires de santé dans plusieurs pays ont signalé que le personnel clinique avait commencé à utiliser des assistants de rédaction IA pour les notes cliniques, sans comprendre que ces outils transmettaient les données à des serveurs externes.

Comment les organisations répondent

L’éventail des réponses va des interdictions totales (qui fonctionnent rarement) aux programmes de gouvernance IA structurés.

Interdictions totales : La réponse initiale de Samsung. Problème : les employés trouvent des contournements. Les appareils personnels, les points d’accès personnels et les outils d’IA accessibles via navigateur rendent l’application quasi impossible sans une surveillance intrusive qui crée ses propres problèmes juridiques et éthiques.

Outils d’IA d’entreprise approuvés : L’approche la plus efficace. Les organisations qui déploient des outils d’IA d’entreprise approuvés — Microsoft Copilot pour Microsoft 365, Google Workspace Gemini, ou des solutions IA d’entreprise dédiées avec protection contractuelle des données — offrent aux employés une alternative encadrée qui satisfait le besoin de productivité sans l’exposition sécuritaire. L’adoption d’outils approuvés corrèle directement avec la réduction de l’usage d’outils non autorisés.

Contrôles Data Loss Prevention (DLP) : Les plateformes DLP modernes (Netskope, Zscaler, Microsoft Purview) ont ajouté des contrôles spécifiques à l’IA capables de détecter quand des catégories de données sensibles sont transmises vers des endpoints d’IA, et de bloquer ou journaliser le transfert. Limitation : le DLP fonctionne sur les appareils qu’il peut surveiller — les appareils personnels et les endpoints non managés restent des angles morts.

Politiques de gouvernance IA : Des politiques écrites formelles définissant quels outils d’IA sont approuvés, quelles données peuvent être soumises et quelles conséquences s’appliquent en cas de violation. Indispensable mais insuffisant seul — une politique sans outillage ne change les comportements qu’à la marge.

Sensibilisation des employés : Enseigner aux employés que « l’IA ne traite pas seulement votre texte localement » reste une intervention à fort levier. La plupart des employés qui pratiquent le shadow AI ne sont pas malveillants — ils résolvent un problème de productivité sans comprendre le flux de données.

Construire un cadre de gouvernance IA

Les organisations qui passent d’une posture réactive à proactive construisent des cadres de gouvernance IA qui traitent l’adoption d’outils IA comme tout logiciel tiers avec accès aux données :

  1. Inventorier l’usage IA existant — sonder les employés et utiliser la surveillance réseau pour comprendre quels outils sont en usage avant de rédiger une politique
  2. Classifier la sensibilité des données — définir quelles catégories de données ne peuvent jamais être soumises à des outils IA, lesquelles peuvent l’être via des outils d’entreprise avec accords de traitement, et lesquelles sont non restreintes
  3. Déployer des alternatives approuvées — s’assurer que chaque unité métier dispose d’outils IA approuvés répondant à ses cas d’usage
  4. Mettre en œuvre des contrôles techniques — règles DLP, filtrage d’URL pour les endpoints IA non approuvés, et surveillance des mouvements de données sensibles
  5. Former et communiquer — formation régulière, pas une case à cocher unique
  6. Créer un playbook de réponse aux incidents — définir comment les événements d’exposition via shadow AI sont classifiés, investigués et signalés (y compris aux régulateurs si requis)

Advertisement

Radar de Décision (Prisme Algérien)

Dimension Évaluation
Pertinence pour l’Algérie Haute — s’applique à toute organisation déployant des outils IA ; les banques, télécoms et entreprises tech algériennes font face aux mêmes comportements employés que les entreprises mondiales
Infrastructure prête ? Partielle — les outils DLP d’entreprise et les plateformes IA approuvées sont disponibles ; la plupart des organisations algériennes manquent de cadres formels de gouvernance IA et de déploiement DLP
Compétences disponibles ? Partielles — des compétences en cybersécurité existent en Algérie, notamment dans les télécoms et les banques ; la gouvernance IA en tant que discipline nécessite une formation complémentaire
Calendrier d’action Immédiat — le shadow AI se produit déjà au sein des organisations algériennes ; la question est de savoir s’il est visible ou invisible
Parties prenantes clés RSSI, directeurs IT, équipes juridiques et conformité, RH, tout dirigeant responsable de la protection de la PI
Type de décision Stratégique

En bref : Le shadow AI est un problème mondial sans exemption géographique. Les entreprises algériennes disposant de propriété intellectuelle précieuse, de données clients ou d’obligations réglementaires au titre de la loi 18-07 sur la protection des données devraient traiter cela comme une priorité immédiate : dresser un inventaire de l’usage actuel des outils IA, déployer des alternatives IA d’entreprise approuvées et mettre en place des contrôles DLP de base avant qu’un incident à la Samsung ne force une réponse réactive.

Sources et lectures complémentaires