Le Pentagone transforme l'éthique en clause technique et OpenAI s'empare du contrat

Le Pentagone transforme l'éthique en clause technique et OpenAI s'empare du contrat

Lorsque le client le plus exigeant au monde exige "toute fin licite", l'enjeu n'est pas de proclamer des principes mais de concevoir des barrières opérationnelles.

Tomás RiveraTomás Rivera28 février 20266 min
Partager

Le vendredi 27 février 2026, OpenAI a annoncé un accord permettant au Département de la Défense des États-Unis — renommé par l'administration Trump comme Département de la Guerre — de déployer ses modèles d'IA sur des réseaux classifiés. L'annonce est intervenue quelques heures après que le secrétaire à la Défense, Pete Hegseth, ait qualifié Anthropic de risque pour la chaîne d'approvisionnement pour la sécurité nationale, un label qui, dans les faits, bloque les contractants militaires de mener des activités commerciales avec cette entreprise (avec une période de transition de six mois). Cette séquence est plus significative que le titre : il ne s'agissait pas seulement d'un contrat gagné, mais d'une reconfiguration du tableau.

Dans ce type de marché, la demande ne se négocie pas depuis le confort d'un manifeste éthique. Elle se négocie depuis le langage de l'acheteur : contrôle opérationnel, couverture légale et continuité des missions. Anthropic, selon les rapports, cherchait à inclure des interdictions contractuelles explicites pour deux usages spécifiques : la surveillance massive domestique et les armes totalement autonomes sans supervision humaine. Le Pentagone a rejeté cette structure contractuelle et a exigé un "accès complet et sans restrictions pour toute fin LICITE". OpenAI a accepté ce cadre de l'acheteur, mais a promis une autre chose : des sauvegardes techniques et une "pile de sécurité" où le gouvernement ne forcerait pas le modèle à obéir s'il refuse une tâche.

Vu sous l'angle de la stratégie produit, le tournant est clair : l'éthique a cessé d'être un paragraphe légal et s'est transformée en spécification d'implémentation. Et cette différence définit qui entre dans le réseau classifié.

Le véritable signal de l'accord n'est pas le contrat, mais le standard d'achat

Sam Altman a communiqué que l'accord permet l'utilisation des modèles pour "toute fin licite", incorporant des sauvegardes contre la surveillance massive des citoyens américains et garantissant la responsabilité humaine sur l'utilisation de la force létale, même dans les systèmes d'armes autonomes. Le détail clé n’est pas qu’il existe des limites, mais où résident ces limites.

Anthropic a tenté d’ancrer les limites dans le contrat. OpenAI les ancre en trois couches : (1) lois existantes qui interdisent déjà certains usages, (2) politiques militaires exigeant un jugement humain pour la force létale, et (3) contrôles techniques dans le déploiement. Pour un acheteur comme le Département de la Guerre, cette architecture réduit la friction : elle maintient le langage de "fin licite" souhaité et déplace la conformité vers une combinaison de gouvernance interne et de technologie.

Ce n'est pas une discussion philosophique ; c'est du procurement. Un contrat avec des prohibitions explicites donne à l'entreprise fournisseur un mécanisme formel de blocage. Une "pile de sécurité", en revanche, se présente comme une capacité technique et une opération conjointe, sans "veto" contractuel. Dans le briefing, il est mentionné que le Pentagone a accusé Anthropic de rechercher un "pouvoir de veto" sur les décisions opérationnelles. Cette phrase est un message pour toute l'industrie : l'acheteur n'achète pas seulement des modèles, il achète une subordination opérationnelle.

La conséquence est que le "standard" ne sera plus qui a le meilleur modèle généraliste, mais qui peut l'emballer dans des conditions acceptables pour un environnement classifié sans transformer chaque exception en une crise légale. En pratique, OpenAI offre une interface de gouvernance plus digeste pour le client.

Le blocage d'Anthropic est un coup pour la chaîne d'approvisionnement, pas une discussion de valeurs

La désignation de "risque de chaîne d'approvisionnement" contre Anthropic est décrite comme un mouvement sans précédent. Et c'est pourquoi il convient de la lire pour ce qu'elle est : un outil de pouvoir pour discipliner un marché qui devenait difficile à acheter.

Dans un environnement où les modèles fondamentaux deviennent une infrastructure, l'État traite les fournisseurs comme il traite les semi-conducteurs, les télécommunications ou la cybersécurité : continuité, contrôle, auditabilité, substitution. Étiqueter un fournisseur comme un risque réorganise les incitations d'un coup, car cela oblige les contractants et les partenaires à choisir leur camp, même s'il existe une période de transition.

L'effet immédiat est économique bien que nous n'ayons pas de chiffres publics sur l'accord d'OpenAI. Nous avons en revanche l'ordre de magnitudes du choc : le briefing mentionne des négociations d'Anthropic pour des jusqu'à 200 millions de dollars. Même si ce chiffre ne représentait pas la majorité des affaires d'Anthropic, le véritable coup n'est pas de perdre un contrat ponctuel. C'est de rester en dehors de l'écosystème de fournisseurs qui vivent de servir le client militaire, où la compatibilité commerciale est binaire.

Pour OpenAI, le bénéfice n'est pas seulement de "gagner". C'est de devenir le fournisseur dont la présence dans des réseaux classifiés normalise un schéma de déploiement. Une fois que le client investit dans l'intégration, le personnel d'ingénierie sur site et les flux de sécurité, le coût de changer de fournisseur augmente. Le briefing affirme qu'OpenAI déploiera des ingénieurs au Pentagone et mettra en œuvre une architecture de sauvegardes. Cela sonne moins comme une "vente d'API" et plus comme un service critique intégré.

Le message pour toute startup aspirant à vendre à l'État est inconfortable : le risque n'est plus seulement technique ou de conformité ; c'est de "l'acceptabilité politique" en tant que fournisseur. Cette acceptabilité peut être définie en 24 heures.

OpenAI a mené une expérience à haut risque : convertir la sécurité en une caractéristique opérable

Alors que la plupart des analyses se concentreront sur la question de savoir si OpenAI a "cédé" ou si Anthropic a "tenu bon", je vois autre chose : OpenAI a converti une discussion de restrictions en un paquet de livraison. C'est ce qu'on appelle le produit.

Altman a déclaré qu'ils construiront des sauvegardes techniques qui permettront au gouvernement d'avoir une "pile de sécurité" et que les modèles qui refusent d'exécuter des tâches ne seront pas forcés à se conformer. Si cela est mis en œuvre comme décrit, cela implique qu'OpenAI ne se contente pas de vendre un modèle ; elle vend une manière d'opérer le modèle sous pression institutionnelle.

C'est exactement ce dont un acheteur de défense a besoin pour justifier l'achat en interne : "nous n'achetons pas une boîte noire ; nous achetons un système avec des freins". Et cela, sans s'attacher à des clauses qui pourraient être interprétées comme des limitations au commandement.

La partie la plus pragmatique est qu'OpenAI semble accepter que le terrain réglementaire et politique existe déjà pour couvrir certaines préoccupations, et que le reste peut être atténué par l'ingénierie et les processus. Anthropic a tenté de fermer le risque par contrat ; OpenAI essaie de l'instrumenter.

Maintenant, cette approche a un coût. Lorsque vous dites "toute fin licite", vous élargissez l'espace des usages potentiels et donc l'espace des incidents. La promesse de sauvegardes techniques devient mesurable, et par conséquent auditable par le client. Sur des réseaux classifiés, les échecs ne sont pas discutés dans un post public : ils se paient par une perte de confiance et une expulsion silencieuse.

Ce qui est intéressant, c'est qu'OpenAI a même demandé que le Département de la Guerre offre "ces mêmes termes à toutes les entreprises d'IA". Cette phrase opère comme une couverture concurrentielle : si le standard se généralise, OpenAI réduit le risque de se retrouver comme une exception favorisée et convertit son approche en norme de marché.

Le marché de la défense définit le langage commercial de l'IA avancée

Cet épisode ne se produit pas dans le vide. Le briefing mentionne que Google et xAI ont déjà des contrats pour des usages "licites", et que xAI a obtenu l'approbation pour des environnements classifiés cette même semaine. En d'autres termes, l'acheteur construit un portefeuille de fournisseurs, mais l'événement avec Anthropic montre que ce portefeuille a des conditions de permanence.

Lorsqu'un client a un pouvoir d'achat et une capacité d'exclusion, le "langage contractuel" se standardise d'en haut. Ici, le langage est "fin licite". Et autour de ce langage se construit un marché de composants : intégration, contrôles, audit, déploiement sur des réseaux fermés, personnel intégré, gestion des refus du modèle, traçabilité des prompts, enregistrement des décisions humaines.

Les startups qui voient cela comme un débat de réputation sont déjà à la traîne. Ce qui se forme est une catégorie de produit : IA pour environnements classifiés avec garanties opérationnelles. Ce n'est pas la même vente que le SaaS d'entreprise, car l'acheteur n'achète pas de confort ; il achète du contrôle, de la continuité et de la responsabilité.

Anthropic a déclaré qu'elle contestera la désignation devant les tribunaux et qu'elle n'avait pas reçu de communication directe. Si ce différend se prolonge, l'effet de marché est déjà fait : partenaires et contractants ajustent leur exposition aujourd'hui, pas quand il y aura un jugement. La période de transition de six mois est suffisante pour que les équipes de procurement réécrivent les feuilles de route et remplacent les dépendances.

Ici, on observe le schéma que de nombreuses entreprises technologiques sous-estiment : dans des secteurs réglementés ou souverains, le "produit" inclut la relation avec l'État comme acteur politique. Et la politique ne respecte pas les cycles de produit.

La leçon exécutive : les limites qui ne sont pas instrumentées deviennent irrélevantes

OpenAI a gagné parce qu'elle a traduit un conflit de restrictions en une solution de livraison que le client peut opérer selon ses règles. Anthropic a perdu du terrain parce qu'elle a tenté de résoudre le même conflit avec une structure contractuelle que l'acheteur a interprétée comme une perte de contrôle. La différence ne réside pas dans qui a de meilleures intentions, mais dans qui a conçu un système qui s'adapte à la réalité du client le plus exigeant.

Pour les dirigeants d'entreprise, cette affaire laisse une directive applicable en dehors de la défense : lorsque le client exige de l'ampleur et de la vitesse, la seule manière de maintenir des limites sans rompre la vente est de les transformer en mécanismes vérifiables à l'intérieur du produit et de l'opération. Les valeurs qui ne peuvent pas être exécutées finissent par être des décorations corporatives, et les plans parfaits meurent le premier jour où ils heurtent un acheteur réel.

La véritable croissance d'entreprise n'a lieu que lorsque l'on abandonne l'illusion du plan parfait et que l'on adopte la validation constante avec le client réel.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer