Les trois états des données et leur dernière frontière

La sécurité des données s’est traditionnellement concentrée sur la protection des données dans deux de leurs trois états : au repos et en transit. Les données au repos — stockées sur disques, dans des bases de données, dans des archives de sauvegarde — sont chiffrées à l’aide de technologies bien établies comme AES-256. Les données en transit — circulant à travers les réseaux entre systèmes — sont protégées par TLS, IPsec et d’autres protocoles de chiffrement de transport. Ces protections sont matures, largement déployées et généralement efficaces.

Mais les données ont un troisième état : les données en cours d’utilisation. Lorsqu’une application traite des données, celles-ci doivent être déchiffrées et chargées en mémoire système en clair. Pendant toute la durée de ce traitement — qu’il prenne des millisecondes ou des heures — les données restent non chiffrées en RAM, vulnérables à une catégorie d’attaques qu’aucun chiffrement de stockage ni aucune sécurité réseau ne peut prévenir.

Cette vulnérabilité n’est pas théorique. Les attaques de type memory scraping, les attaques à froid (extraction physique de la RAM pour en lire le contenu) et les attaques par hyperviseur compromis (où un administrateur cloud malveillant ou un processus non autorisé lit la mémoire d’une machine virtuelle depuis le système d’exploitation hôte) ont toutes été démontrées. Dans un environnement cloud partagé, où les charges de travail de plusieurs locataires s’exécutent sur le même matériel physique, le risque est particulièrement aigu : une vulnérabilité dans l’hyperviseur ou le système d’exploitation hôte pourrait exposer les données non chiffrées d’un locataire à un autre.

L’informatique confidentielle (Confidential Computing) comble cette dernière faille du chiffrement. En utilisant des fonctionnalités de sécurité matérielle intégrées aux processeurs modernes — et désormais aux GPU — l’informatique confidentielle chiffre les données même pendant leur traitement. Pour la première fois, il est possible de chiffrer les données dans leurs trois états, créant un modèle de chiffrement de bout en bout où les données sensibles ne sont jamais exposées en clair en dehors de la frontière de sécurité matérielle du processeur lui-même.

Le socle matériel : AMD SEV-SNP, Intel TDX et NVIDIA GPU TEE

L’informatique confidentielle repose sur des fonctionnalités de sécurité matérielle intégrées au processeur lui-même, et non sur un chiffrement logiciel qui pourrait être compromis par un attaquant privilégié. Les trois principales implémentations proviennent d’AMD, Intel et NVIDIA, chacune traitant différentes couches de la pile de calcul.

AMD SEV-SNP (Secure Encrypted Virtualization – Secure Nested Paging)

L’approche d’AMD en matière d’informatique confidentielle a évolué à travers plusieurs générations. L’état de l’art actuel, SEV-SNP, fournit un chiffrement de la mémoire et une protection de l’intégrité appliqués par le matériel pour les machines virtuelles fonctionnant sur les processeurs AMD EPYC.

Avec SEV-SNP, chaque machine virtuelle reçoit une clé de chiffrement unique générée et gérée par un processeur de sécurité dédié intégré au CPU. Toutes les pages mémoire appartenant à cette VM sont chiffrées avec sa clé unique avant d’être écrites en DRAM. Lorsque le vCPU de la VM accède à la mémoire, les données sont déchiffrées de manière transparente à la frontière du CPU. Ni l’hyperviseur, ni le système d’exploitation hôte, ni les autres VM sur le même hôte physique ne peuvent lire le contenu de la mémoire chiffrée.

Le composant « SNP » (Secure Nested Paging) ajoute une protection d’intégrité, empêchant un hyperviseur malveillant de rejouer, réordonner ou altérer les pages mémoire d’une VM. Cela répond à une catégorie d’attaques où l’hyperviseur manipule la cartographie mémoire plutôt que de lire directement le contenu de la mémoire.

AMD SEV-SNP est disponible sur les processeurs EPYC de troisième génération et ultérieurs et est pris en charge par tous les principaux fournisseurs cloud. Google Cloud, Microsoft Azure et AWS proposent tous des instances de VM confidentielles fonctionnant sur du matériel compatible AMD SEV-SNP. L’analyse empirique montre que SEV-SNP excelle dans les scénarios nécessitant un impact minimal sur les performances et une implémentation plus simple, le rendant particulièrement adapté aux charges de travail des services financiers et de la santé.

Intel TDX (Trust Domain Extensions)

Les Trust Domain Extensions d’Intel adoptent une approche similaire avec quelques différences architecturales. TDX crée des « domaines de confiance » (Trust Domains, TD) isolés par le matériel, protégés de l’hyperviseur, du BIOS et des autres logiciels s’exécutant sur l’hôte.

Chaque domaine de confiance reçoit son propre jeu de clés de chiffrement, géré par un nouveau composant CPU appelé le Module TDX. La mémoire appartenant à un TD est chiffrée et protégée en intégrité, le chiffrement et le déchiffrement s’effectuant au niveau du contrôleur mémoire du CPU — de manière invisible pour les logiciels à tous les niveaux.

TDX fournit également un support architectural pour l’attestation — le processus par lequel un domaine de confiance peut prouver cryptographiquement à une partie distante qu’il exécute un code spécifique et non modifié sur du matériel Intel authentique avec les protections TDX actives. Cette capacité d’attestation est critique pour les cas d’utilisation où plusieurs organisations doivent collaborer sur des données sensibles sans faire confiance à l’infrastructure de l’autre. Le service Intel Trust Authority fournit une infrastructure d’attestation gérée qui simplifie ce processus de vérification.

Intel TDX est disponible sur les processeurs Xeon Scalable de quatrième génération (Sapphire Rapids) et ultérieurs. Google Cloud a rendu les VM confidentielles généralement disponibles sur la série de machines C3 avec Intel TDX, et Azure prend en charge les VM confidentielles basées sur TDX. TDX offre des capacités d’attestation particulièrement complètes adaptées aux charges de travail gouvernementales, de défense et d’IA à haute sécurité.

NVIDIA GPU TEE : étendre l’informatique confidentielle aux accélérateurs IA

Un développement critique qui a transformé la valeur pratique de l’informatique confidentielle est l’extension par NVIDIA des environnements d’exécution de confiance (Trusted Execution Environments) aux GPU. Le GPU NVIDIA H100 Tensor Core est le premier GPU à prendre en charge l’informatique confidentielle, utilisant un TEE matériel ancré dans une racine de confiance matérielle intégrée à la puce.

En mode informatique confidentielle, le H100 fonctionne avec des CPU prenant en charge les VM confidentielles (CVM), utilisant un tampon de rebond chiffré pour déplacer les données de manière sécurisée entre le CPU et le GPU. Cela étend le TEE du CPU au GPU, permettant l’informatique confidentielle pour les charges de travail d’entraînement et d’inférence IA qui alimentent de plus en plus le calcul en entreprise.

L’impact sur les performances est remarquablement modeste : pour la majorité des requêtes typiques de grands modèles de langage, le surcoût reste inférieur à 5 %, les modèles plus grands et les séquences plus longues présentant un surcoût quasi nul. L’informatique confidentielle GPU de NVIDIA, initialement lancée en aperçu privé en juillet 2023, est devenue généralement disponible avec CUDA 12.4 et est désormais centrale dans l’infrastructure IA d’entreprise des secteurs réglementés.

Pourquoi l’informatique confidentielle est urgente maintenant

L’informatique confidentielle est en développement depuis des années, mais plusieurs tendances convergentes l’ont rendue urgente en 2026. Le marché de l’informatique confidentielle est passé de 9,3 milliards de dollars en 2025 à 15,2 milliards de dollars projetés en 2026 — reflétant un point d’inflexion critique dans l’adoption en entreprise.

Charges de travail IA sur données sensibles

Le cas d’utilisation le plus convaincant de l’informatique confidentielle est l’entraînement et l’inférence IA sur des données sensibles. Plus de 70 % des charges de travail IA d’entreprise devraient impliquer des données sensibles d’ici 2026. Les organisations de santé veulent entraîner des modèles IA sur les dossiers patients. Les institutions financières veulent exécuter des modèles de détection de fraude sur les données de transactions. Les agences gouvernementales veulent utiliser l’IA pour l’analyse de renseignements. Dans tous les cas, les données sont trop sensibles pour être traitées en clair sur une infrastructure cloud partagée, même avec des protections contractuelles et de politique.

L’informatique confidentielle — désormais étendue aux GPU via le H100 de NVIDIA — permet à ces organisations de traiter leurs données les plus sensibles sur l’infrastructure cloud avec des garanties matérielles que le fournisseur cloud, les autres locataires et même les administrateurs compromis ne peuvent pas accéder aux données pendant le traitement. C’est une garantie de sécurité fondamentalement plus forte que toute approche contractuelle ou basée sur des politiques.

Exigences réglementaires

Les réglementations de protection des données se renforcent dans le monde entier. Le RGPD de l’UE, le Digital Operational Resilience Act (DORA), le cadre HIPAA américain pour la santé, les réglementations des services financiers comme PCI-DSS et les réglementations émergentes spécifiques à l’IA, y compris le AI Act de l’UE, imposent toutes des exigences sur la manière dont les données sensibles sont traitées. Gartner prédit que 60 % des entreprises évalueront les environnements d’exécution de confiance d’ici fin 2025, en grande partie en raison de l’exigence explicite de DORA de protéger les données en cours d’utilisation — 77 % des organisations déclarant être plus susceptibles d’adopter l’informatique confidentielle en raison des besoins de conformité DORA.

Le nouveau groupe d’intérêt spécial Régulateurs et Normes du Confidential Computing Consortium, présidé par Solomon Cates de Google Cloud avec Michael Guzman de JPMC comme vice-président, signale la reconnaissance par l’industrie que l’alignement réglementaire devient le principal moteur d’adoption.

Collaboration multi-parties sur les données

L’informatique confidentielle permet une nouvelle catégorie d’applications : le calcul sécurisé multi-parties sur des jeux de données combinés. Deux systèmes de santé qui ne peuvent pas partager les données de patients en raison de réglementations sur la vie privée peuvent exécuter un modèle IA partagé à l’intérieur d’une enclave d’informatique confidentielle, où leurs données combinées sont traitées mais aucune des parties ne peut accéder aux données brutes de l’autre. Les institutions financières peuvent détecter de manière collaborative la fraude et les schémas de blanchiment d’argent à travers leurs bases de clients et les juridictions sans exposer les dossiers individuels des clients.

Ce cas d’utilisation de « salle blanche de données » a un potentiel énorme mais nécessite les garanties d’isolation fortes que seule l’informatique confidentielle matérielle peut fournir. Les approches logicielles du calcul sécurisé multi-parties existent (chiffrement homomorphe, enclaves sécurisées) mais sont soit trop lentes pour un usage pratique, soit offrent des garanties de sécurité plus faibles.

Advertisement

L’écosystème prend forme

L’écosystème de l’informatique confidentielle a considérablement mûri, passant d’une curiosité de recherche à une technologie déployable bénéficiant d’un large support commercial. L’Open Confidential Computing Conference (OC3) 2026 et le Confidential Computing Summit reflètent une industrie passée de la sensibilisation aux discussions axées sur le déploiement.

Support des fournisseurs cloud

Les trois principaux fournisseurs cloud proposent désormais des services d’informatique confidentielle :

Google Cloud propose des VM confidentielles sur AMD SEV-SNP (série de machines N2D) et Intel TDX (série de machines C3), plus des nœuds GKE confidentiels pour les charges de travail conteneurisées. Google a été particulièrement offensif dans la promotion de l’informatique confidentielle, fournissant une attestation ancrée dans le matériel et tarifant les instances confidentielles avec un supplément modeste par rapport aux instances standard.

Microsoft Azure propose des VM confidentielles sur AMD SEV-SNP et Intel TDX, ainsi que Azure Confidential Ledger pour le stockage inviolable de données et Azure Attestation pour la vérification des environnements d’informatique confidentielle.

Amazon Web Services propose Nitro Enclaves, une approche quelque peu différente qui crée des environnements de calcul isolés au sein des instances EC2. AWS a également introduit des options d’informatique confidentielle basées sur AMD SEV-SNP pour des familles d’instances spécifiques.

L’écosystème startup

Un écosystème croissant de startups construit des outils et des plateformes qui rendent l’informatique confidentielle plus accessible. Enclaive, une startup berlinoise fondée en 2022, a clôturé un tour de table de 4,1 millions d’euros en février 2026, co-dirigé par Join Capital et Amadeus APEX Technology Fund. Sa Multi Cloud Platform (eMCP) permet aux organisations de déployer des applications conteneurisées existantes dans des environnements Kubernetes confidentiels à travers plusieurs fournisseurs cloud sans modification de code. L’entreprise a été reconnue avec notamment le Prix Croissance 2025 au Forum InCyber et le Produit de l’Année TeleTrust 2024.

D’autres startups dans le domaine incluent Anjuna Security, qui fournit une plateforme pour exécuter des applications non modifiées dans des enclaves d’informatique confidentielle à travers plusieurs fournisseurs cloud, et Fortanix, qui propose une plateforme d’informatique confidentielle axée sur la gestion des clés et la sécurité des données.

Standards ouverts

Le Confidential Computing Consortium (CCC), un projet de la Linux Foundation comptant parmi ses membres AMD, Intel, Google, Microsoft, Red Hat et NVIDIA, développe des standards ouverts pour l’attestation, l’interopérabilité et les spécifications d’API. Pour 2026, le comité consultatif technique du CCC se concentre sur la fourniture de guides techniques orientés adoption, avec un accent particulier sur l’informatique confidentielle en pile complète et l’IA souveraine et sécurisée. Ces standards sont essentiels pour prévenir le verrouillage fournisseur et permettre des déploiements d’informatique confidentielle multi-cloud.

Performances et considérations pratiques

L’informatique confidentielle n’est pas gratuite. Le chiffrement matériel de la mémoire et la vérification d’intégrité imposent un surcoût de performance qui varie selon la charge de travail, la génération de matériel et l’implémentation.

Les implémentations actuelles d’AMD SEV-SNP et Intel TDX montrent généralement un surcoût de performance de l’ordre de 2 % à 10 % pour les charges de travail intensives en calcul. Les charges de travail intensives en mémoire — celles avec de grands ensembles de travail et des besoins élevés en bande passante mémoire — peuvent voir un surcoût plus élevé en raison des opérations de chiffrement et de déchiffrement sur chaque accès mémoire. Les GPU NVIDIA H100 en mode informatique confidentielle montrent un surcoût inférieur à 5 % pour l’inférence LLM typique, rendant les charges de travail IA confidentielles pratiquement viables.

Pour de nombreuses charges de travail, en particulier l’inférence IA où la valeur sécuritaire de la protection des poids du modèle et des données d’entrée est élevée, un surcoût de performance de 5 à 10 % est un compromis acceptable. Pour les charges de travail ultra-sensibles à la latence comme le trading haute fréquence, même un faible surcoût peut être problématique.

Plusieurs considérations pratiques affectent le déploiement en conditions réelles.

Limites mémoire. Les VM confidentielles peuvent avoir des allocations mémoire maximales inférieures à celles des VM standard sur le même matériel, car le mécanisme de chiffrement consomme une partie de la mémoire pour les métadonnées et la gestion des clés.

Migration à chaud. La migration à chaud traditionnelle des VM — déplacer une VM en cours d’exécution d’un hôte physique à un autre sans interruption — est compliquée par l’informatique confidentielle, car les clés de chiffrement mémoire de la VM sont liées au CPU physique spécifique. Des solutions existent mais ajoutent de la complexité.

Débogage. Les outils de débogage standard qui inspectent la mémoire de l’application ne peuvent pas accéder à la mémoire chiffrée des VM confidentielles. Les développeurs doivent utiliser des approches de débogage spécialisées opérant au sein de la frontière confidentielle.

Infrastructure d’attestation. La mise en place et la gestion du flux d’attestation — vérifier qu’une VM confidentielle exécute le code attendu sur du matériel authentique avec des protections actives — nécessite une infrastructure et des procédures opérationnelles supplémentaires. Des services comme Intel Trust Authority simplifient cela, mais la plupart des organisations sont encore en train de développer leurs capacités d’attestation.

La trajectoire d’adoption

L’adoption de l’informatique confidentielle suit un schéma prévisible : adoption précoce dans les secteurs les plus sensibles en matière de sécurité, suivie d’une expansion progressive à mesure que la technologie mûrit et que les coûts diminuent. La croissance du marché de 9,3 milliards à plus de 15 milliards de dollars en une seule année signale que la technologie est passée des projets pilotes aux déploiements en production.

Les services financiers et la santé sont les premiers adoptants, portés par les exigences réglementaires et la sensibilité de leurs données. Les banques et assureurs utilisent l’informatique confidentielle pour détecter la fraude et les schémas de blanchiment d’argent à travers les juridictions sans exposer les informations personnellement identifiables. Les chercheurs en santé exécutent des analyses fédérées entre institutions sans violer le HIPAA ou le RGPD.

Les agences gouvernementales, en particulier les organisations de défense et de renseignement, sont également des adoptants précoces, motivés par la capacité de traiter des données classifiées sur l’infrastructure cloud commerciale avec une isolation matérielle qui ne dépend pas de la confiance accordée au fournisseur cloud.

Les entreprises d’IA sont une catégorie émergente d’adoptants. Alors que les modèles IA deviennent une propriété intellectuelle précieuse et que les données d’entraînement sont soumises à des réglementations de confidentialité de plus en plus strictes, l’informatique confidentielle — s’étendant désormais aux charges de travail accélérées par GPU via le H100 de NVIDIA — fournit un mécanisme pour protéger à la fois les poids des modèles et les données d’entraînement pendant les processus intensifs en calcul d’entraînement et d’inférence. La combinaison des TEE CPU et GPU TEE crée une pile d’informatique confidentielle complète pour l’IA.

Le point d’inflexion de l’adoption de masse arrivera probablement quand l’informatique confidentielle deviendra le paramètre par défaut plutôt qu’une option — quand les fournisseurs cloud activeront le chiffrement mémoire par défaut sur toutes les instances, sans pénalité de performance et sans coût supplémentaire. AMD et Intel travaillent tous deux vers cet objectif, chaque génération de processeur réduisant le surcoût du chiffrement matériel.

D’ici trois à cinq ans, exécuter des charges de travail cloud sans chiffrement mémoire sera aussi inhabituel qu’exécuter du trafic web sans chiffrement TLS. La « dernière faille du chiffrement » sera comblée non seulement pour les charges de travail les plus sensibles, mais pour toutes.

Advertisement

🧭 Radar de Décision (Prisme Algérien)

Dimension Évaluation
Pertinence pour l’Algérie Moyenne-Élevée — La loi algérienne 18-07 impose la protection des données mais manque de mécanismes d’application pour le chiffrement des données en cours d’utilisation. Alors que les banques, les opérateurs télécoms et les agences gouvernementales algériens migrent leurs charges de travail vers le cloud (y compris le nouveau centre de données IA à Oran), l’informatique confidentielle devient critique pour la conformité et la confiance.
Infrastructure prête ? Non — Aucun fournisseur cloud majeur n’exploite de région en Algérie, donc les services locaux d’informatique confidentielle sont indisponibles. Les organisations algériennes utilisant des fournisseurs cloud internationaux peuvent demander des instances de VM confidentielles, mais cela crée une tension avec les exigences d’hébergement local de la loi 18-07.
Compétences disponibles ? Non — L’informatique confidentielle nécessite une expertise approfondie en sécurité matérielle, en flux d’attestation et en architecture d’applications compatibles TEE. Cet ensemble de compétences est extrêmement rare à l’échelle mondiale et essentiellement absent dans la main-d’œuvre algérienne actuelle.
Calendrier d’action 12-24 mois — Commencer par la sensibilisation éducative pour les équipes de sécurité et les architectes cloud. Piloter des déploiements de VM confidentielles pour les charges de travail les plus sensibles (banques, santé) sur des fournisseurs cloud internationaux tout en plaidant pour des options de cloud souverain local.
Parties prenantes clés ANPDP (autorité de protection des données), Banque d’Algérie, Ministère de la Numérisation, institutions financières algériennes, départements informatiques de santé, programmes universitaires en cybersécurité
Type de décision Éducatif / Stratégique — Les organisations devraient comprendre la technologie maintenant et planifier l’adoption à mesure que l’infrastructure cloud algérienne mûrit.

En bref: L’informatique confidentielle résout un problème réel pour les organisations algériennes manipulant des données sensibles — en particulier les banques soumises aux normes de conformité internationales et les établissements de santé gérant des dossiers patients. La barrière immédiate n’est pas la technologie elle-même mais l’absence d’infrastructure cloud locale. Les responsables IT algériens devraient évaluer les capacités d’informatique confidentielle lors de la sélection de fournisseurs cloud internationaux, et les décideurs politiques devraient envisager des exigences d’informatique confidentielle dans le cadre de toute future stratégie de cloud souverain.

Sources et lectures complémentaires