Quand le ‘usage légal’ entre en conflit avec la sécurité : la bataille pour qui gouverne l'IA militaire
Il est rare de voir un fournisseur technologique dire "non" lorsqu'il s'agit de jusqu'à 200 millions de dollars sur la table, et que le client est l'État avec le plus grand budget de défense au monde. Pourtant, Anthropic l'a fait.
Le 26 février 2026, son PDG, Dario Amodei, a annoncé que l'entreprise "ne peut, en conscience", accepter l'exigence du Département de la Défense des États-Unis de lever les protections de Claude. Au cœur du désaccord se trouvent deux limites : interdire l'utilisation du modèle dans la surveillance domestique de masse et dans les armes autonomes totalement létales. Selon le reportage de The Guardian, le Pentagone, sous la direction du secrétaire à la Défense Pete Hegseth, a réagi par un ultimatum : si Anthropic n'accède pas à l'utilisation de Claude pour "tous les usages légaux" dans des environnements classifiés, le contrat pourrait être annulé à 17h01 ET le 27 février et la société pourrait être désignée comme "risque pour la chaîne d'approvisionnement". Une évaluation normalement associée à des menaces externes, et non à une entreprise américaine.
La surface de la nouvelle semble représenter un choc de valeurs. La mécanique réelle est plus délicate : le gouvernement tente de transformer la gouvernance d'un modèle en une clause contractuelle, tandis que l'entreprise cherche à faire de ses politiques de sécurité une condition de service. Au milieu se trouvent les opérateurs qui ont besoin de capacités et les contribuables qui ont besoin de garanties.
Le contrat comme champ de bataille pour le contrôle du modèle
L'important n'est pas seulement qu'il existe un contrat de 200 millions de dollars. C'est la nature de l'actif qui est acheté. Un modèle fondamental n'est pas un logiciel traditionnel qui est livré et reste "fermé" dans une version. C'est un système qui se met à jour, se perfectionne, s'intègre avec des flux de données et acquiert de nouvelles capacités au fil du temps. En pratique, acheter de l'IA aujourd'hui ressemble davantage à engager une infrastructure critique qu'à obtenir une licence pour un produit.
C'est pourquoi le Pentagone pousse pour la formule de "tous les usages légaux". Selon sa logique, toute restriction supplémentaire à la loi équivaut à une imposition de limites opérationnelles par un fournisseur privé à l'État. Le sous-secrétaire à la Recherche et l'Ingénierie, Emil Michael, dans des déclarations citées par The Guardian, a présenté le problème comme une défense des libertés civiles face à des décisions de “BigTech”, et a remis en question qu'une entreprise puisse établir des frontières au-delà des normes démocratiquement approuvées.
En revanche, Anthropic soutient que le langage proposé permettrait d'ignorer ses protections à volonté. Un porte-parole anonyme a décrit que la dernière rédaction reçue du DoD montrait "virtuellement aucun progrès" et que le "compromis" était principalement juridique. L'entreprise ne discute pas de l'utilisation militaire en général ; Amodei a même écrit qu'il croit en l'"importance existentielle" d'utiliser l'IA pour défendre les États-Unis. Il discute de deux applications où, selon sa thèse, le modèle pourrait "saper les valeurs démocratiques".
Voici le signal stratégique pour le marché : la négociation ne concerne plus le prix, la performance ou le soutien. Elle concerne qui a la clé de contournement. Si le client peut désactiver les contrôles "quand il le souhaite", les protections deviennent une simple décoration. Si le fournisseur peut bloquer des catégories d'utilisation même dans des environnements classifiés, l'État a l'impression de déléguer sa souveraineté opérationnelle.
La menace de désigner Anthropic comme "risque pour la chaîne d'approvisionnement" amplifie la pression : elle ne punit pas seulement le contrat ponctuel, mais la capacité future de vendre au gouvernement et d'être accepté par des contractants tels que Boeing ou Lockheed Martin, qui auraient été invités à évaluer leur exposition, selon la même couverture. C'est un outil de pouvoir qui réorganise les incitations dans tout le secteur.
La sécurité devient une architecture de produit
De l'extérieur, "protections" sonne comme une politique d'entreprise. En réalité, c'est du design produit et, par extension, du design du pouvoir. Lorsqu'un modèle interdit la surveillance de masse ou les armes autonomes, ce qu'il fait est limiter l'évolutivité de certaines utilisations. Et c'est là que la friction apparaît : l'IA réduit les coûts marginaux et rend réplicables ce qui était auparavant cher.
En matière de surveillance, le changement est brutal. La différence entre analyser manuellement des informations dispersées et automatiser la classification, la priorisation et la corrélation est le passage d'une opération coûteuse à une capacité potentiellement omniprésente. La même logique s'applique aux systèmes létaux : l'automatisation réduit la friction, accélère les cycles de décision et floute la responsabilité si aucun design explicite de supervision humaine n'est établi.
Le Pentagone insiste sur le fait qu'il est régi par des lois telles que la Quatrième Amendement, selon les arguments cités, et qu'il ne doit pas accepter de limites privées supplémentaires. Ce point est cohérent sur le plan institutionnel. Le problème est que "légal" et "prudent" ne sont pas synonymes dans des systèmes qui amplifient les capacités. Un usage peut être légal et, pourtant, établir un précédent opérationnel qui sera difficile à démonter par la suite.
Je vois ici le cœur de l'économie politique de l'IA : la discussion se déplace de "que peut faire le modèle" à "que peut faire le système qui l'entoure". Un modèle dans un environnement classifié, intégré via des plateformes comme Amazon et Palantir (mentionnées dans l'article), n'est pas un chatbot. C'est un composant dans une chaîne de décision. Dans ce contexte, les protections sont moins une posture morale qu'une manière de gérer le risque systémique.
Ce qu'Anthropic défend, du moins dans son cadre public, c'est une idée de l'IA comme intelligence augmentée, non comme substitut au jugement. Si un système est utilisé pour la surveillance de masse ou pour déléguer la létalité, l'humain cesse d'être superviseur et devient, dans le meilleur des cas, un signataire tardif. C'est la limite que l'entreprise tente de fixer dans le contrat.
Un précédent qui réorganise le marché des fournisseurs d'IA pour la défense
Le marché avait déjà commencé à consolider une thèse : le Département de la Défense ne veut pas d'un fournisseur, il veut un catalogue. L'été dernier, le Chief Digital & AI Office a attribué des contrats de jusqu'à 200 millions à Anthropic, Google, xAI et OpenAI pour personnaliser l'IA générative pour des usages militaires, selon The Guardian. L'idée évidente est d'éviter la dépendance à un seul acteur et d'accélérer les capacités.
Mais le détail qui change la négociation est qu'Anthropic, selon la même source, est le seul modèle utilisé dans des environnements classifiés à ce jour, ce qui lui conférait un avantage en expérience, et donc un pouvoir de négociation. Ce pouvoir est précisément ce que le Pentagone tente de neutraliser en normalisant la clause de "tous les usages légaux" comme base contractuelle.
Si cette clause devient la norme, le message pour le reste des fournisseurs est clair : quiconque souhaite entrer dans le domaine classifié doit accepter que ses politiques internes ne fonctionnent pas comme des limites. Il n'est pas nécessaire que le gouvernement promette qu'il les utilisera pour la surveillance massive ou les armes autonomes. Il doit simplement s'assurer du droit de le faire si son interprétation légale le permet.
En parallèle, un chemin concurrentiel s'ouvre. L'article mentionne que xAI a accepté la norme de "tous les usages légaux" pour le travail classifié. Cela génère un risque financier immédiat pour Anthropic : perdre le contrat signifie non seulement perdre des revenus potentiels, mais également céder du terrain dans un segment où la crédibilité se construit avec des déploiements réels, non des promesses.
Il y a aussi un coût pour le Pentagone s'il exécute la menace. Le porte-parole Sean Parnell a averti sur X que cesser de permettre ces usages mettrait en danger des opérations et des "warfighters", et qu'ils ne permettront pas que "quiconque dicte les termes". Cette posture durcit la négociation mais élève également le coût réputationnel de se passer d'un fournisseur déjà intégré. Dans les achats de défense, passer à un autre fournisseur est rarement une transition propre, même si Amodei a signalé sa disponibilité pour une "transition fluide" vers un autre.
L'angle le moins commenté est celui de la gouvernance industrielle : si les États-Unis désignent une entreprise locale comme "risque de chaîne d'approvisionnement" dans un conflit contractuel, le secteur tout entier internalise que la non-conformité est sanctionnée comme une menace. Cela accélère la "discipline" du marché, mais peut décourager ceux qui construisent des barrières de sécurité robustes par conception.
Le facteur Défense de la Production et l'expansion du pouvoir étatique sur les modèles
La couverture mentionne également que le Pentagone a envisagé d'invoquer la Defense Production Act (DPA) pour forcer un accès sans restrictions, malgré les doutes juridiques exprimés par des experts en politiques d'IA. Cette possibilité est importante même si elle n'est jamais mise en œuvre. C'est un signal que l'État est prêt à traiter des modèles avancés comme des ressources stratégiques et à pousser des instruments de temps de guerre vers l'économie numérique.
Du point de vue de l'entreprise, le DPA change le calcul du risque. Si le gouvernement peut déclarer un système "essentiel" et forcer des conditions, alors la stratégie de "vendre au secteur public pour stabiliser les revenus" cesse d'être simple. Le contrat ressemble plus à un accord avec capacité de coercition. Et cela oblige les conseils d'administration à se demander ce qu'ils achètent réellement : des ventes ou une exposition.
Il existe une contradiction qu'Amodei a soulignée et qui est opérationnellement pertinente : au même moment où on menace de désigner Anthropic comme un risque pour la chaîne de fourniture, on envisage de forcer l'accès parce que le modèle serait essentiel pour la sécurité nationale. Cette tension n'est pas qu'une simple rhétorique ; elle révèle un État qui souhaite dépendance sans dépendance, c'est-à-dire accès et contrôle sans accepter l'asymétrie de pouvoir que le fournisseur possède également.
La sortie probable n'est pas une victoire absolue de l'une ou l'autre partie. Il s'agit d'un redesign contractuel qui crée une zone grise : des protections sur papier, des exceptions sous certains processus, des audits internes, et un langage qui préserve la marge de manœuvre pour le DoD. Le problème de la zone grise est que, dans des systèmes qui s'échelonnent, ce qui n'est pas techniquement garanti s'érode avec le temps.
Ce qui est clair, c'est le motif : l'IA dans la défense entre dans une phase où l'actif critique n'est plus le modèle, mais le gouvernement de son usage. Celui qui contrôle cette manette contrôle la valeur.
La direction inéluctable est la gouvernance technique, et pas seulement des clauses
En tant que futuriste axée sur l'impact, je considère ce différend comme le symptôme d'une maturité. L'IA a cessé d'être un achat "innovant" et est devenue une infrastructure. Dans l'infrastructure, la vraie discussion est qui définit les limites, qui audite les exceptions et qui supporte le coût lorsqu'une utilisation "légale" produit un dommage opérationnel, politique ou social.
Le C-Level devrait lire ce cas comme une leçon sur les achats d'IA dans des secteurs régulés : les principes de sécurité qui ne sont pas intégrés dans l'architecture et les processus finissent par être négociés comme des annexes contractuelles, et les annexes se brisent sous pression. Si la sécurité dépend de la bonne volonté, elle ne s'échelonne pas.
C'est aussi un rappel de la façon dont la convergence numérique érode les monopoles de décision. Ni le gouvernement ne peut assumer le contrôle total sur des modèles qui se construisent dans le secteur privé, ni les entreprises ne peuvent espérer que leurs politiques internes remplacent les cadres démocratiques. La seule issue stable est de concevoir des systèmes où l'intelligence augmentée préserve la supervision humaine vérifiable et la traçabilité.
Ce marché évolue d'une numérisation vers une disruption de la gouvernance : la valeur se déplacera vers ceux qui transformeront les protections en ingénierie vérifiable et réduiront le coût de conformité sans dégrader les capacités.











