Le veto au fournisseur d'IA qui alourdit toute la chaîne de défense

Le veto au fournisseur d'IA qui alourdit toute la chaîne de défense

Quand un régulateur désigne un fournisseur comme risqué pour la chaîne d'approvisionnement, le coût ne se limite pas à la startup.

Martín SolerMartín Soler11 mars 20266 min
Partager

Microsoft a décidé d'intervenir publiquement dans un conflit qui semblait, à première vue, opposer le Pentagone à une startup. L'entreprise a déposé un mémoire en soutien à Anthropic pour contrecarrer en justice la désignation par le Département de la Défense des États-Unis qualifiant la société de "risque pour la chaîne d'approvisionnement en matière de sécurité nationale" et interdisant par conséquent aux entrepreneurs et fournisseurs militaires de travailler avec elle. L'argument de Microsoft était clair : l'inapplication immédiate de cette décision imposerait des "coûts et des risques substantiels et étendus" tant pour Microsoft que pour les entrepreneurs gouvernementaux qui dépendent de la technologie d'Anthropic pour des contrats avec le DoD. Cette actualité, plus qu'un choc idéologique sur les "garanties", révèle un problème d'architecture économique : lorsque l'on supprime un élément qui fonctionne comme une couche de base, le coût se propage à l'ensemble de la chaîne.

Les faits sont clairs. Fin février 2026, le DoD a désigné Anthropic comme un risque pour la chaîne d'approvisionnement. Cette mesure est due à un désaccord concernant les garanties : Anthropic a refusé de permettre à ses modèles Claude de soutenir des applications létales, une surveillance de masse des Américains, ou des armes autonomes sans contrôle humain. Le 9 mars 2026, Anthropic a porté plainte devant un tribunal fédéral de Californie contre des autorités et agences fédérales afin de bloquer temporairement cette décision et d'éviter sa mise en œuvre définitive. Le lendemain, le 10 mars, Microsoft a présenté son mémoire en soutien. En parallèle, Google a annoncé qu'il continuerait de travailler avec Anthropic sur des projets non liés à la défense, et des personnalités de l'industrie, y compris le PDG d'OpenAI, ont appelé le Pentagone à ne pas aller de l'avant. Lors d'une audience à San Francisco, Anthropic a affirmé qu'elle pourrait perdre des milliards de dollars de revenus cette année si la désignation était maintenue.

Ce cas revêt une importance pour les startups pour une raison délicate : il ne s'agit pas seulement de réputation ou d'éthique produit. Il s'agit de risque réglementaire qui se transforme en risque commercial systémique. En IA, où l'intégration technique avec les clients et partenaires est profonde, l'"expulsion" d'un fournisseur n'est pas un événement isolé ; c'est une reconfiguration coûteuse des contrats, des délais, des audits, de la conformité et de la responsabilité.

L'étiquette de "risque" transforme les dépendances techniques en passifs financiers

La décision du DoD transforme une relation commerciale en un passif immédiat pour des tiers. Le détail décisif de la nouvelle n'est pas tant l'existence d'un plan de sortie, mais son asymétrie. Selon le rapport, le président Donald Trump a ordonné aux agences fédérales d'éliminer progressivement les modèles d'Anthropic en six mois, mais les entrepreneurs n'ont pas ce délai de transition. Ce dispositif déplace le coût de l'État vers la chaîne privée qui exécute le travail.

Sur le plan opérationnel, un entrepreneur qui utilisait Claude comme composant d'un système — que ce soit pour l'analyse, le support, la traduction ou l'automatisation — se retrouve confronté à une interruption brutale. Le remplaçant n'est pas plug-and-play. Il y a des coûts directs associés à la réentraînement ou à l'adaptation des prompts, à la redéfinition des intégrations, à la recertification de la conformité, à la renégociation des clauses avec les clients et à la garantie de la continuité du service. Il y a également un coût d'opportunité : des équipes qui étaient en train de livrer des produits passent à la migration. Microsoft a exprimé cela avec un langage clair pour comprendre l'incitation : "coûts et risques substantiels". En d'autres termes, ce changement n'alourdit pas seulement les coûts ; il introduit une incertitude contractuelle.

Nous pouvons observer ici une dynamique classique d'achats complexes : lorsque la couche technologique devient "fondamentale" dans les produits de défense, la valeur ne réside plus uniquement dans le modèle, mais dans l'ensemble des intégrations et des processus qui l'entourent. En bloquant le fournisseur de cette couche, le DoD ne punit pas seulement la startup ; il punit, de manière indirecte, ceux qui ont investi dans la construction autour de celle-ci. Ce transfert de coûts se solde souvent de deux manières : soit l'entrepreneur l'absorbe en réduisant sa marge, soit il le transfère en prix au client, ou les deux.

L'élément le plus délicat réside dans le précédent. Si une garantie d'utilisation peut déclencher une désignation de risque avec effet immédiat, le coût de la signature de contrats avec des startups d'IA augmente. Ce n'est pas à cause du prix du modèle, mais en raison du coût attendu d'une interruption forcée. Ce coût attendu s'intègre dans les décisions d'achat et dans la structure des contrats. Pour une startup, cela signifie que le marché commence à exiger des garanties, de la redondance ou des réductions pour compenser le risque.

Microsoft et Google défendent plus qu'Anthropic

Microsoft a un enjeu financier : elle s'est engagée à investir jusqu'à 5 milliards de dollars dans Anthropic dans le cadre d'une alliance élargie annoncée en novembre 2025, avec Nvidia. Google, quant à lui, a accumulé environ 3 milliards de dollars d'investissements dans Anthropic jusqu'au début de 2026, et le 9 mars, il a confirmé qu'il continuerait à collaborer sur des travaux non liés à la défense.

Il serait facile de lire ces positions comme une politique d'entreprise. Je les perçois comme une défense d'un actif économique : la capacité des grandes plateformes à offrir à leurs clients un portefeuille de modèles et de fournisseurs sans que chaque intégration ne devienne un risque existentiel. En IA, le "produit" d'un hyperscaler n'est pas uniquement le calcul ; c'est la promesse de continuité et d'approvisionnement. Lorsqu'un régulateur bloque un fournisseur pertinent, cette promesse devient plus coûteuse à respecter.

La phrase attribuée à Microsoft dans le rapport résume la thèse commerciale : le DoD "a besoin d'un accès fiable à la meilleure technologie du pays", et Microsoft a sollicité du temps pour "trouver un terrain d'entente" sur les garanties. Derrière cette position, il y a une logique contractuelle : si l'État exige une performance et une sécurité, mais génère une discontinuité sans transition pour les entrepreneurs, le coût de la conformité s'envole et l'appétit pour adopter des technologies émergentes diminue.

Google a choisi une voie différente : il a sécurisé la continuité en dehors de la défense. Cette décision réduit la volatilité de la relation commerciale avec Anthropic et protège sa propre offre de cloud dans les secteurs non militaires. Cela marque également une segmentation : l'entreprise peut continuer à capter de la valeur dans des usages civils tandis que le front de la défense se judiciaire.

Parallèlement, le soutien des employés d'OpenAI et de Google à un mémoire amicus distinct, ainsi que la demande du PDG d'OpenAI pour que le Pentagone ne progresse pas, suggèrent que l'industrie perçoit un risque transversal. Pas besoin de romantisme pour le comprendre : si aujourd'hui, un fournisseur est bloqué en raison de certaines restrictions d'utilisation, demain, d'autres fournisseurs peuvent durcir ou assouplir leurs politiques par crainte de sanctions. Ce mouvement ne favorise pas la sécurité ; il alourdit la coordination.

Le conflit sur les garanties est, en pratique, un litige d'attribution des coûts

L'origine déclarée du choc réside dans le refus d'Anthropic de permettre des usages associés à des applications létales, une surveillance massive domestique ou des armes autonomes sans contrôle humain. Le PDG d'Anthropic, Dario Amodei, a été cité disant que l'IA ne devrait pas être utilisée pour la surveillance massive domestique ni pour mettre le pays dans une situation où des machines autonomes pourraient déclencher une guerre. Le DoD, selon le rapport, a rejeté ces préoccupations et a avancé avec la liste noire.

Au-delà du débat normatif, ce qui modifie le jeu est le mécanisme choisi : une désignation de "risque pour la chaîne d'approvisionnement" avec effet immédiat sur les fournisseurs privés. C'est un instrument conçu pour couper la dépendance, mais appliqué de cette manière, il crée une externalité négative : il oblige plusieurs entreprises à supporter, d'un coup, le coût de changement de fournisseur sans le temps minimum nécessaire pour gérer la migration, le contrôle qualité et la continuité.

Lors de l'audience devant la juge fédérale Rita F. Lin, Anthropic a plaidé l'urgence en raison du potentiel de perte de milliards de revenus cette année. Ce chiffre, sans plus de détails de la source, est significatif pour ce qu'il implique : une partie matérielle de son activité est directement ou indirectement liée à la demande associée à la défense et aux fournisseurs au service de l'État. Lorsque l'ordre interdit aux entrepreneurs de travailler avec la société, ce n'est pas seulement un client qui est perdu ; c'est un canal qui se ferme.

Ici, apparaît la tension classique en technologie : l'État veut capacité et contrôle. Les fournisseurs veulent des limites d'utilisation et une certitude contractuelle. Si l'État réagit par un blocage immédiat, son message au marché est que la conformité n'est pas négociable ; elle est imposée. Le problème est que, sans transition équivalente pour les entrepreneurs, cette imposition est financée par les liquidités et le risque opérationnel de tiers. Et lorsque qu'un acteur paie pour les décisions d'un autre sans avoir d'agence, le résultat typique est le retrait : moins d'adoption, plus de bureaucratie et des contrats plus chers.

Pour les startups, l'apprentissage est difficile : dans les secteurs à haute sensibilité, les garanties ne sont pas seulement un positionnement ; ce sont une variable qui peut déclencher des sanctions détruisant la distribution et les canaux. Pour l'État, l'apprentissage devrait également être difficile : s'il pénalise ceux qui fixent des limites et, en même temps, exige une innovation rapide, il finit par acheter la "conformité" au détriment de la diversité des fournisseurs.

La chaîne de défense s'alourdit lorsqu'on brise la préférence de rester

Microsoft a averti que des disruptions coûteuses sont à prévoir car son exposition est double : en tant qu'investisseur avec un engagement de jusqu'à 5 milliards de dollars, et en tant que fournisseur d'infrastructure et de services à des clients qui peuvent dépendre d'Anthropic comme élément. Anthropic, quant à elle, fait face à un coup potentiel de revenus se chiffrant en milliards, et les entrepreneurs se retrouvent avec le problème opérationnel immédiat en l'absence de transition. Google limite les dommages avec une continuité en dehors de la défense, mais le signal de risque réglementaire reste installé.

D'après mon expérience en analyse des chaînes de valeur, ce type de mesures n'est pas évalué selon le "message" mais par le résultat économique total. Si le DoD renvoie un fournisseur et oblige la chaîne privée à migrer sans une période de transition, le coût total du système augmente. Ce coût se traduit par moins de concurrence parmi les fournisseurs d'IA pour la défense, des contrats plus rigides, des marges comprimées pour les entrepreneurs et des prix plus élevés pour le client final. La politique peut obtenir de l'alignement, mais cela se paie avec de la friction.

La bataille juridique déterminera si l'ordre est temporairement bloqué et comment se gérera son implémentation. Ce qui est déjà établi, c'est le modèle de distribution : le DoD capte un contrôle immédiat, tandis qu'Anthropic, Microsoft et les entrepreneurs supportent le coût de la discontinuité. Dans des chaînes complexes, celui qui gagne de la valeur est celui qui réduit l'incertitude et fait en sorte que ses partenaires préfèrent rester. Perdent ceux qui transforment leurs alliés en dommages collatéraux d'une décision sans transition.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer