Une désignation sans précédent
Dans l’après-midi du 27 février 2026, le département de la Défense des États-Unis a émis une désignation qui a envoyé une onde de choc à travers l’establishment militaire et l’industrie de l’intelligence artificielle. Le secrétaire à la Défense Pete Hegseth a officiellement classé Anthropic, l’entreprise d’IA basée à San Francisco spécialisée dans la sécurité de l’IA et créatrice de Claude, comme un « risque pour la chaîne d’approvisionnement de la sécurité nationale » — la première fois que les États-Unis appliquaient cette désignation à une entreprise nationale américaine.
La désignation a entraîné des conséquences immédiates et sévères. Un contrat de 200 millions de dollars pour des capacités d’IA sur des réseaux classifiés a été résilié. Les sous-traitants et contractants militaires ont été informés que l’utilisation des produits et services d’Anthropic dans tout travail lié à la défense était interdite. Hegseth a annoncé la décision sur X (anciennement Twitter), déclarant que « la position d’Anthropic est fondamentalement incompatible avec les principes américains » et que sa relation avec les forces armées américaines et le gouvernement fédéral était « définitivement altérée ».
La justification officielle portait sur le refus d’Anthropic d’accorder au Pentagone une utilisation illimitée de Claude pour « tous les usages légaux ». Le litige concernait spécifiquement deux restrictions qu’Anthropic refusait de lever : l’interdiction d’utiliser Claude pour le ciblage d’armes entièrement autonomes et l’interdiction de la surveillance de masse des citoyens américains sur le territoire national. Selon le département de la Défense, ces restrictions constituaient un obstacle matériel à la mission de défense nationale.
Quelques heures après l’annonce, OpenAI — le principal concurrent d’Anthropic — a révélé avoir conclu son propre accord avec le Pentagone pour des services d’IA sur des réseaux classifiés, dans un calendrier que de nombreux observateurs ont qualifié de manifestement coordonné.
Le contrat à l’origine de tout
Le litige remonte à un contrat attribué à Anthropic à la mi-2025 par le Chief Digital and Artificial Intelligence Office (CDAO) du département de la Défense. Cet accord prototype de deux ans, avec un plafond de 200 millions de dollars, a fait de Claude le premier modèle d’IA de pointe approuvé pour une utilisation sur les réseaux classifiés du Pentagone. Dans le cadre de l’accord, le Pentagone avait accepté de se conformer à la politique d’utilisation acceptable d’Anthropic.
Le déploiement initial s’est déroulé sans heurts. Les capacités de Claude en matière d’analyse de documents, de synthèse et d’identification de schémas étaient bien adaptées à l’analyse de renseignement, et les premières évaluations ont rapporté des gains de productivité significatifs pour les équipes d’analystes. Le système traitait des renseignements en source ouverte (OSINT), des câbles diplomatiques et des rapports de renseignement technique, produisant des synthèses et des recoupements qui auraient nécessité des jours de travail pour des analystes humains.
Les frictions ont commencé en janvier 2026, lorsque le mémorandum de stratégie IA de Hegseth a exigé que tous les contrats IA du département de la Défense adoptent une formulation standard « tout usage légal ». Le Pentagone a demandé à Anthropic de renégocier les termes de son contrat, insistant pour que l’armée puisse utiliser Claude sans limitation. Les demandes d’application du système à l’analyse de renseignement d’origine électromagnétique (SIGINT), aux recommandations de ciblage et à l’analyse de surveillance des modes de vie se sont toutes heurtées à des refus des systèmes de sécurité de Claude.
Du point de vue du département de la Défense, ces refus constituaient des limitations inacceptables pour un outil utilisé à des fins légitimes de sécurité nationale. Du point de vue d’Anthropic, ils reflétaient le fonctionnement de garde-fous de sécurité que l’entreprise s’était publiquement engagée à maintenir — des garde-fous constituant un élément central de son identité d’entreprise et une condition de la confiance publique.
La ligne de faille éthique
Le litige entre le Pentagone et Anthropic cristallise une tension qui se construit depuis les premiers jours de la recherche en IA militaire : qui a l’autorité pour définir les limites de ce que les systèmes d’IA peuvent et ne peuvent pas faire dans un contexte de sécurité nationale ?
La perspective militaire
Du point de vue du département de la Défense, l’argument est simple. Les États-Unis font face à de véritables menaces d’adversaires qui investissent massivement dans les capacités d’IA militaire sans les contraintes éthiques imposées par les entreprises occidentales. Les programmes d’IA militaire chinois, en particulier, fonctionnent sans restrictions de sécurité comparables. Dans ce paysage concurrentiel, les entreprises américaines qui refusent de soutenir les applications de défense placent le pays en situation de désavantage stratégique.
La position du Pentagone incluait également un argument juridique spécifique : la loi fédérale interdit déjà la surveillance de masse des Américains, et les politiques internes de l’armée restreignent déjà les armes entièrement autonomes. L’armée estimait qu’il n’était pas nécessaire de codifier ces restrictions séparément dans un contrat de fournisseur d’IA, et que l’insistance d’Anthropic à le faire constituait une assertion inacceptable d’autorité corporative sur les opérations militaires.
Hegseth a également cadré le conflit en termes culturels, déclarant dans un discours de janvier 2026 que le Pentagone « rejetait tout modèle d’IA qui ne vous permet pas de mener des guerres » et que les systèmes d’IA militaires fonctionneraient « sans contraintes idéologiques limitant les applications militaires légales ». Il a ajouté sans détour : « Notre IA ne sera pas woke. »
La position d’Anthropic
Le PDG d’Anthropic, Dario Amodei, a rencontré directement Hegseth mais a refusé de céder sur les deux lignes rouges de l’entreprise. Dans une interview à CBS News, Amodei a expliqué que la position d’Anthropic reposait sur une évaluation de principe : la technologie IA n’est pas encore suffisamment fiable pour faire fonctionner des armes de manière autonome, et aucun cadre juridique adéquat n’existe encore pour régir la surveillance de masse assistée par l’IA.
L’entreprise a fait valoir que ses restrictions de sécurité étaient publiques, documentées et connues du département de la Défense avant l’attribution du contrat. Après l’annonce de la désignation, Anthropic l’a qualifiée de « sans précédent » et « juridiquement infondée », avertissant qu’elle « créerait un précédent dangereux pour toute entreprise américaine qui négocie avec le gouvernement ». L’entreprise s’est engagée à contester la désignation devant les tribunaux.
Le facteur OpenAI
Le calendrier de l’annonce du partenariat entre OpenAI et le Pentagone — divulgué quelques heures après la désignation d’Anthropic — a ajouté une dimension concurrentielle à une situation déjà tendue.
L’approche d’OpenAI vis-à-vis de l’engagement militaire a considérablement évolué. Sa charte originale interdisait les applications militaires, mais cette restriction a été discrètement supprimée en janvier 2024. The Intercept a été le premier à signaler ce changement de politique, notant qu’OpenAI était passé d’une interdiction d’utilisation pour le « développement d’armes » ou « les activités militaires et de guerre » à une interdiction plus large limitée à l’utilisation de ses outils pour « se nuire à soi-même ou aux autres ». OpenAI a ensuite poursuivi des contrats de défense, s’associant à Anduril en octobre 2024 pour des applications d’IA sur le champ de bataille.
L’accord d’OpenAI avec le Pentagone prétendait inclure les deux mêmes restrictions pour lesquelles Anthropic s’était battu — pas de surveillance de masse sur le territoire national et pas d’armes entièrement autonomes — tout en acceptant simultanément la norme « tout usage légal » qu’Anthropic avait rejetée. Les critiques, dont le MIT Technology Review, ont noté que ce paradoxe apparent suggérait que les restrictions d’OpenAI pourraient être moins contraignantes que celles d’Anthropic ne l’avaient été.
La réaction ne s’est pas fait attendre. Le PDG d’OpenAI, Sam Altman, a admis le 3 mars que l’entreprise « n’aurait pas dû se précipiter » pour l’accord avec le Pentagone, décrivant le calendrier comme ayant « semblé opportuniste et bâclé ». Il a annoncé des amendements au contrat ajoutant un langage plus clair sur les restrictions de surveillance.
La dynamique concurrentielle a des implications significatives. Si la désignation du Pentagone fait jurisprudence, elle crée une puissante incitation pour les entreprises d’IA à minimiser les restrictions de sécurité sur les applications militaires — ou à les mettre en place de manière moins visible et moins susceptible de déclencher des refus.
Advertisement
Questions juridiques et constitutionnelles
La désignation de risque pour la chaîne d’approvisionnement soulève plusieurs questions juridiques et constitutionnelles qui sont désormais devant les tribunaux.
La désignation a été faite en vertu d’autorités conçues pour traiter les risques de chaîne d’approvisionnement provenant d’adversaires étrangers — en particulier les entreprises technologiques chinoises. Appliquer ces autorités à une entreprise nationale américaine représente une extension nouvelle et potentiellement problématique du pouvoir exécutif. Les analystes juridiques de Lawfare ont estimé que la désignation « ne survivra pas au premier contact avec le système juridique », tandis que Just Security a publié une analyse détaillée de ce que la désignation autorise et n’autorise pas légalement.
L’équipe juridique d’Anthropic a fait valoir que le secrétaire à la Défense « n’a pas l’autorité statutaire » pour interdire à quiconque faisant affaire avec l’armée de faire affaire avec Anthropic, et que la loi ne s’étend qu’à l’utilisation de modèles d’IA dans le cadre des contrats du DOD, et non à la manière dont les sous-traitants utilisent Claude pour servir d’autres clients.
Les considérations liées au Premier Amendement sont également pertinentes. Les garde-fous de sécurité d’Anthropic sont, en leur essence, une expression des valeurs de l’entreprise concernant la manière dont l’IA devrait être utilisée. Pénaliser une entreprise pour avoir mis en place des restrictions sur l’utilisation de ses produits — en particulier des restrictions reflétant des considérations éthiques et de sécurité — soulève des questions sur le discours contraint.
Hegseth a également menacé d’invoquer le Defense Production Act pour contraindre Anthropic à fournir sa technologie indépendamment des objections de l’entreprise — une loi invoquée le plus récemment pendant la pandémie de COVID-19 pour les fournitures médicales. Les juristes se sont interrogés sur la possibilité d’étendre ce texte aux logiciels d’IA.
Le contre-argument est que les contrats de défense ne sont pas un droit, et que le gouvernement dispose d’une large discrétion dans le choix de ses fournisseurs. Selon cette logique, la désignation est une décision d’approvisionnement, pas une action punitive. La résolution de ces questions par les tribunaux établira des précédents importants pour la relation entre l’industrie de l’IA et l’establishment de sécurité nationale.
Répercussions dans l’industrie
La désignation d’Anthropic a envoyé des ondes de choc dans l’ensemble de l’industrie de l’IA et de l’écosystème des contrats de défense.
Plusieurs entreprises d’IA ayant des ambitions dans le secteur de la défense auraient commencé à réviser leurs politiques de sécurité pour s’assurer qu’elles ne déclencheraient pas de désignations similaires. L’inquiétude s’étend au-delà des entreprises avec des garde-fous de sécurité explicites — tout produit d’IA incluant un filtrage de contenu, des restrictions d’utilisation ou des directives éthiques pourrait potentiellement être caractérisé comme ayant des limitations entravant les applications de défense.
Les sous-traitants de défense qui évaluaient la technologie d’Anthropic ont immédiatement interrompu ces évaluations. La désignation de risque pour la chaîne d’approvisionnement crée des risques juridiques et contractuels pour tout sous-traitant de défense qui continue à utiliser les produits d’Anthropic — même pour des applications non militaires au sein de leurs organisations.
La communauté du capital-risque a particulièrement pris note. Anthropic venait de clôturer une levée de fonds Series G de 30 milliards de dollars à une valorisation de 380 milliards de dollars le 12 février 2026 — seulement deux semaines avant la désignation. Le tour de table, mené par Coatue et le fonds souverain singapourien GIC avec la participation de Microsoft et Nvidia, reflétait la confiance dans l’approche axée sur la sécurité de l’entreprise. La désignation du Pentagone a immédiatement soulevé des questions quant à savoir si les engagements en matière de sécurité — que les investisseurs considéraient comme un différenciateur — pouvaient devenir des passifs.
Une coalition de travailleurs du secteur technologique a organisé une lettre ouverte au DOD et au Congrès demandant le retrait de l’étiquette de risque pour la chaîne d’approvisionnement, arguant qu’elle menaçait l’ensemble de l’écosystème de sécurité de l’IA.
Qui fixe les limites de l’IA militaire ?
Le litige entre le Pentagone et Anthropic soulève en fin de compte une question à laquelle les sociétés démocratiques n’ont pas encore répondu : qui a l’autorité légitime pour déterminer les limites éthiques des systèmes d’IA militaires ?
Si la réponse est « l’armée elle-même », alors les entreprises d’IA sont réduites à des fournisseurs de matières premières sans rôle dans la définition de l’utilisation de leur technologie. Ce modèle est cohérent avec le fonctionnement traditionnel de l’industrie de la défense — les fabricants d’armes produisent des armements selon les spécifications militaires sans imposer leurs propres restrictions sur le déploiement — mais il est sans doute inadapté aux systèmes d’IA dont les capacités et les risques diffèrent fondamentalement des armes conventionnelles.
Si la réponse est « les entreprises d’IA », alors des dirigeants d’entreprise non élus prennent des décisions sur les capacités de sécurité nationale sans responsabilité démocratique. Ce modèle confère un pouvoir énorme à un petit nombre d’entreprises technologiques et à leurs fondateurs, qui peuvent avoir des convictions de principe mais ne sont pas soumis aux processus politiques qui régissent d’autres aspects de la politique de défense.
Si la réponse est « le Congrès et le processus démocratique », alors une législation globale est nécessaire — une législation qui n’existe pas actuellement. Le AI Act de l’UE fournit un cadre partiel, avec son interdiction de certaines applications d’IA et ses exigences de supervision humaine dans les systèmes à haut risque, mais les États-Unis ne disposent d’aucune législation comparable traitant des implications militaires de l’IA.
La résolution la plus probable est un compromis désordonné : des normes informelles, des négociations au cas par cas et des décisions politiques ad hoc qui ne satisfont pleinement personne mais permettent au système de fonctionner. C’est, à bien des égards, le pire résultat — il ne fournit ni la prévisibilité dont l’industrie a besoin, ni la responsabilité démocratique que le public mérite.
Le précédent
Quelle que soit la résolution du litige immédiat, la désignation d’Anthropic par le Pentagone comme risque pour la chaîne d’approvisionnement a établi un précédent aux implications durables. Elle démontre que le gouvernement américain est prêt à utiliser les autorités de sécurité nationale pour faire pression sur les entreprises d’IA qui maintiennent des restrictions de sécurité incompatibles avec les objectifs militaires. Elle crée une dynamique concurrentielle qui incite les entreprises à minimiser ou dissimuler leurs engagements en matière de sécurité. Et elle soulève des questions fondamentales sur la relation entre sécurité de l’IA, autonomie des entreprises et gouvernance démocratique.
L’ironie n’échappe pas aux observateurs : une entreprise dont la mission entière est de garantir que l’IA est sûre pour l’humanité a été désignée comme un risque pour la sécurité nationale par la plus puissante armée du monde. Que cette désignation reflète une préoccupation légitime de sécurité ou une dangereuse confusion entre sécurité et obstruction pourrait être la question de politique d’IA la plus déterminante de 2026.
Advertisement
🧭 Radar de Décision
| Dimension | Évaluation |
|---|---|
| Pertinence pour l’Algérie | Moyenne — La modernisation militaire de l’Algérie et ses stratégies d’approvisionnement en IA seront influencées par la manière dont les principaux fournisseurs d’IA gèrent les exigences gouvernementales ; ce précédent affecte tout pays achetant de l’IA d’origine américaine |
| Infrastructure prête ? | Partielle — L’Algérie n’a pas de déploiements d’IA classifiés comparables à ceux du Pentagone, mais le ministère de la Défense nationale a exprimé son intérêt pour l’analyse de renseignement assistée par l’IA |
| Compétences disponibles ? | Partielles — Le vivier croissant de talents en IA en Algérie (universités d’Alger, Oran, Constantine) pourrait soutenir l’évaluation de l’IA de défense, mais manque d’expertise approfondie dans les cadres de gouvernance de l’IA militaire |
| Calendrier d’action | 12-24 mois — Surveiller comment la contestation juridique et la réponse de l’industrie remodèlent les politiques des fournisseurs d’IA pour les contrats gouvernementaux à l’échelle mondiale |
| Parties prenantes clés | Ministère de la Défense nationale, DGRSDT (direction de la recherche), startups algériennes en IA envisageant des contrats gouvernementaux, équipes de cybersécurité CERT-DZ |
| Type de décision | Stratégique / Éducatif — Comprendre ce précédent est essentiel pour tout futur approvisionnement en IA par le gouvernement algérien |
Sources et lectures complémentaires
- Pentagon Moves to Designate Anthropic as a Supply-Chain Risk — TechCrunch
- OpenAI Sweeps In to Snag Pentagon Contract After Anthropic Labeled ‘Supply Chain Risk’ — Fortune
- Hegseth Declares Anthropic a Supply Chain Risk — CBS News
- OpenAI Quietly Deletes Ban on Using ChatGPT for Military and Warfare — The Intercept
- What Hegseth’s Supply Chain Risk Designation Does and Doesn’t Mean — Just Security
- Pentagon’s Anthropic Designation Won’t Survive First Contact with Legal System — Lawfare
- Anthropic’s Responsible Scaling Policy v3.0 — Anthropic
- OpenAI’s Compromise with the Pentagon Is What Anthropic Feared — MIT Technology Review





Advertisement