La demande d'Anthropic contre le Pentagone révèle le prix du contrôle
Lorsqu'une entreprise d'IA vend à l'État, elle ne propose pas uniquement de la capacité de calcul et des réponses utiles. Elle offre une promesse de continuité : que le modèle sera disponible demain, que la chaîne de fournisseurs ne sera pas perturbée par la politique, et que l'acheteur ne sera pas exposé à un changement brusque des conditions. Au cœur de cette promesse réside la confiance.
Anthropic a récemment mis cette confiance au centre d'un affrontement direct avec le Département de la Défense des États-Unis. Selon un rapport de Fortune, la société a signé en juillet 2025 un contrat de 200 millions de dollars avec le Pentagone. Huit mois plus tard, l'administration Trump l'a désignée comme "risque pour la chaîne d'approvisionnement", ordonnant aux agences fédérales d'arrêter d'utiliser Claude et augmentant la pression sur toute personne interagissant avec le complexe militaire. Le conflit a éclaté parce qu'Anthropic a refusé de lever les restrictions de sécurité qui, selon des sources citées, empêchaient des usages tels que les armes autonomes et la surveillance de masse des Américains. Anthropic a répondu par deux poursuites : l'une liée aux droits du Premier Amendement pour représailles présumées basées sur ses positions et l'autre contre la désignation même de "risque".
Au niveau des gros titres, cela ressemble à un nouvel épisode de la politisation du secteur technologique. Mais d'un point de vue économique, c'est un rappel plus inconfortable : dans des marchés où l'État est à la fois client et arbitre, le “produit” qui est réellement acheté est la réduction de l'anxiété institutionnelle. Or, cette anxiété ne se dissipe pas avec des benchmarks.
Quand l'acheteur est le régulateur, le produit devient obéissance opérationnelle
Sur le papier, l'équation est simple. L'État a besoin de modèles puissants pour des tâches de défense et de sécurité. Les fournisseurs rivalisent sur le prix, la performance et la capacité de déploiement. Fortune précise même que Claude surpassait ChatGPT dans plusieurs benchmarks pertinents, ce qui aide à expliquer pourquoi Anthropic a réussi à s'imposer dans le segment des entreprises.
En pratique, le mécanisme d'achat ressemble moins à un concours technique qu'à une négociation de risque réputationnel. Un département gouvernemental n'évalue pas seulement la précision ou la latence : il évalue la probabilité que le fournisseur change les règles en cours de route ou que le lien devienne un conflit public. Ce calcul n'est pas “rationnel” au sens classique du terme ; il est défensif. Dans des structures hiérarchiques, l'incitation dominante est d'éviter l'incident qui fera les gros titres.
Sous cette logique, les restrictions de sécurité d'Anthropic fonctionnent comme un signal ambivalent. Pour une partie du marché, elles représentent une assurance : elles réduisent la probabilité d'utilisations catastrophiques et, par extension, de scandales. Pour une autre partie, elles constituent une clause d'incertitude : elles indiquent que le fournisseur se réserve un droit de veto sur certaines applications. Le rapport décrit que le Pentagone recherchait "un accès sans restrictions" et que le refus a entraîné une escalade.
L'essentiel est que, lorsque l'acheteur a le pouvoir de punir au-delà du contrat, le risque cesse d'être uniquement contractuel. La désignation comme “risque pour la chaîne d'approvisionnement” ne fonctionne pas simplement comme une résiliation commerciale. Elle agit comme une étiquette qui contamine des tiers. Et dans les marchés où les achats publics sont essentiels, cette étiquette équivaut à augmenter le coût psychologique de vous choisir.
L'étiquette “risque” est une arme de friction cognitive en chaîne
Fortune décrit un effet domino : les entrepreneurs et les grands fournisseurs technologiques pourraient être contraints de certifier "zéro exposition" aux produits d'Anthropic pour préserver leurs relations avec l'État. Voici le phénomène qui m'intéresse en tant qu'analyste du comportement des consommateurs appliqué aux affaires : le client corporatif ne décide pas seulement sur la base de l'utilité, mais aussi sur la facilité de justification.
Dans des scénarios d'ambiguïté, les organisations s'appuient sur des heuristiques. L'une des plus courantes est l'autorité : si l'État étiquette quelque chose comme un risque, même si le motif est contesté devant les tribunaux, l'étiquette devient un raccourci mental pour les comités d'achat, les équipes légales et les départements de conformité. Personne ne souhaite être celui qui a signé un renouvellement "contre la recommandation", même si le produit est supérieur.
C'est ce type de friction qui détruit l'adoption sans avoir besoin d'interdictions explicites. Il n'est pas nécessaire que chaque entreprise reçoive un ordre formel. Il suffit qu'elle perçoive un coût potentiel lors d'audits, de futures soumissions ou de renouvellements de contrats. En termes comportementaux, la peur d'une perte incertaine pèse généralement plus que le bénéfice technique tangible. Une meilleure performance dans les tâches juridiques ou de cybersécurité ne compense pas, pour de nombreux dirigeants, le stress anticipé de défendre la décision devant un régulateur.
Le résultat est un risque existentiel que le rapport lui-même cadre avec franchise : le danger n'est pas seulement de perdre 200 millions de dollars, mais aussi de perdre l'élan commercial aux États-Unis si les clients sentent que l'utilisation de Claude les rend "compliqués" pour l'État.
Ce schéma se reproduit dans d'autres secteurs : lorsque le coût de coordination interne pour expliquer un choix dépasse le bénéfice incremental du produit, c'est le fournisseur qui réduit le travail mental qui gagne. Dans les achats d'entreprise, "être défendable" est une caractéristique du produit, même si cela ne figure pas dans la fiche technique.
La course avec la Chine aggrave le dilemme car l'adversaire joue sans garde-fous
L'angle géopolitique apporté par Fortune ajoute une couche d'ironie stratégique. À la fois Anthropic et OpenAI ont accusé des laboratoires chinois d'extraire des modèles par des méthodes non autorisées, et ces versions, selon le rapport, circulent sans restrictions pour des acteurs comme l'Armée Populaire de Libération, l'Iran et d'autres adversaires.
D'un point de vue incitatif, cela pousse les gouvernements à maximiser la capacité. Si l'adversaire a accès à des modèles puissants "sans garde-fous", l'impulsion naturelle d'un appareil de défense est de demander la même chose, voire plus. Le conflit avec Anthropic, d'après les sources citées, prend racine précisément là : l'entreprise souhaite maintenir des limites ; le client militaire veut les éliminer.
Ici se dessine une tension que de nombreux conseils d'administration sous-estiment : la sécurité, en tant qu'attribut commercial, fonctionne lorsque l'acheteur paie pour la tranquillité d'esprit. Mais en matière de sécurité nationale, l'acheteur paie pour un avantage opérationnel. Cette différence change la perception de la valeur.
Pour Anthropic, les restrictions visent à éviter des dommages graves et à protéger la société, y compris à prévenir la surveillance de masse des citoyens. Pour le Pentagone, ces restrictions peuvent être perçues comme une perte d'options, et l'optionnalité est un actif stratégique. En termes comportementaux, l'acheteur réagit avec une aversion à la restriction : lorsqu'on perçoit qu'un acteur externe limite le menu des actions disponibles, un désir de reprendre le contrôle apparaît, même si l'ensemble du menu n'est pas utilisé.
D'où le fait que la réponse n'était pas simplement de changer de fournisseur. Selon les sources, l'étiquette de "risque" a été appliquée et le veto a été étendu à toutes les agences fédérales. Cette intensité a une lecture claire : plus que de résoudre un achat, cela vise à discipliner le marché.
La leçon pour le marché corporatif de l'IA est que la confiance se conçoit
L'histoire est souvent racontée comme une bataille éthique entre "sécurité" et "pouvoir". Je la vois plutôt comme une bataille pour l'architecture de confiance dans un marché où le produit est hautement réplicable et le coût de changement, bien que technique, finit par être politique.
OpenAI apparaît dans le rapport comme le bénéficiaire naturel, "comblant le vide" du contrat. Il n'est pas nécessaire de supposer quoi que ce soit de plus : lorsqu'un fournisseur entre en zone de risque, le concurrent n'a pas besoin d'être parfait ; il doit être moins problématique pour l'acheteur. C'est une forme sévère de concurrence.
Pour le reste de l'industrie, cette affaire laisse trois implications opérationnelles :
Premièrement, les limites d'utilisation ne sont pas "déclarées", elles sont négociées comme partie du package d'adoption. Si une entreprise souhaite maintenir des garde-fous, elle doit les transformer en un avantage pour l'acheteur, et non en une restriction morale. Cela exige une traduction : moins de discours, plus de conception contractuelle, de métriques d'audit et de processus d'exception clairs.
Deuxièmement, vendre à l'État nécessite une redondance réputationnelle. Il ne suffit pas d'être bon. Il faut être difficile à attaquer. L'étiquette de "risque" fonctionne parce qu'elle est simple, accrocheuse et coûteuse à réfuter en une réunion de 30 minutes. Les entreprises qui rivalisent sur ces marchés doivent investir dans des récits vérifiables, des certifications, de la traçabilité et une gouvernance qui réduisent l'espace aux simplifications.
Troisièmement, la demande elle-même est un acte de produit. Contester peut protéger des principes, mais cela peut aussi accroître l'anxiété des tiers. La question financière n'est pas seulement de savoir si Anthropic gagne ou perd en justice. Il s'agit de savoir combien de temps le marché restera en mode attente et combien de clients préféreront ne pas s'exposer tant que le litige reste ouvert.
En économie comportementale, l'adoption se produit lorsque la poussée pour sortir de l'état actuel dépasse la peur du changement et la force de l'habitude. Dans ce cas, la poussée pour avoir de meilleures performances s'oppose à une peur institutionnelle beaucoup plus puissante : être aligné avec un fournisseur étiqueté comme risque par l'acheteur le plus influent du pays.
Le plateau se déplacera vers celui qui réduit la peur, pas vers celui qui remporte le benchmark
Ce conflit laisse un avertissement concret pour les leaders de l'IA d'entreprise : la performance technique peut susciter le désir, mais elle n'achète que rarement la tranquillité d'esprit. Et dans des secteurs réglementés ou avec des achats publics, la tranquillité d'esprit constitue le composant dominant de la valeur.
Anthropic peut avoir des raisons de sécurité légitimes pour maintenir des restrictions, et l'État peut avoir des raisons stratégiques de vouloir les éliminer. Ce qui détermine l'impact économique, ce n'est pas la pureté de l'intention, mais la manière dont cette tension se transforme en friction pour le client corporatif qui souhaite simplement une stabilité opérationnelle.
Le précédent qui est discuté dans les sources pousse également à une réalité inconfortable : si l'État apprend qu'il peut utiliser des étiquettes de chaîne d'approvisionnement comme un outil disciplinaire contre des fournisseurs nationaux, toute la catégorie devient plus fragile. Les acheteurs privés, en percevant cette fragilité, tendent à se concentrer sur le fournisseur qui semble le moins exposé à des représailles. Cela peut accélérer la consolidation, peu importe qui a le meilleur produit.
La stratégie qui gagne sur ce marché ne se définit pas par l'éclat du modèle, mais par l'ingénierie de confiance autour du modèle. Et cette ingénierie exige d'investir moins dans la promesse de capacités infinies et davantage dans l'apaisement des peurs vérifiables : continuité, gouvernance, traçabilité et voies d'utilisation acceptables pour les acteurs disposant d'un pouvoir de veto. À la fin, les équipes de direction qui survivent sont celles qui détectent à temps quand elles mettent tout leur capital à faire briller leur produit, au lieu de l'investir de façon disciplinée pour apaiser les peurs et les frictions qui empêchent le client de l'acheter.












