L'IA que le Pentagone a rejetée et que Washington ne peut ignorer

L'IA que le Pentagone a rejetée et que Washington ne peut ignorer

Le 5 mars 2026, le département américain de la Défense a placé Anthropic sur une liste habituellement réservée aux adversaires étrangers : la catégorie de risque dans la chaîne d'approvisionnement. La mesure était directe et sévère. Si elle se maintenait, elle pouvait couper net l'accès de l'entreprise aux contrats fédéraux représentant des milliards de dollars.

Elena CostaElena Costa19 avril 20266 min
Partager

La IA que el Pentágone a rejetée et que Washington ne peut pas ignorer

Le 5 mars 2026, le Département de la Défense des États-Unis a placé Anthropic sur une liste qu'il réserve habituellement aux adversaires étrangers : la catégorie de risque dans la chaîne d'approvisionnement. La mesure fut directe et sévère. Si elle se maintenait, elle pouvait couper d'un seul coup l'accès de la société aux contrats fédéraux valant des milliards de dollars. Dans les faits, cela revenait à déclarer l'un des constructeurs d'IA les plus avancés du pays comme une menace pour la sécurité nationale.

Quatre jours plus tard, Anthropic attaquait le Pentagone en justice. Et six semaines après, Dario Amodei, PDG de la société, prenait part à une réunion décrite par la Maison-Blanche comme « productive et constructive », aux côtés de Susie Wiles, Chef de Cabinet, et de Scott Bessent, Secrétaire au Trésor. La même administration qui avait déclaré Anthropic ennemie cherchait désormais des formules de collaboration avec elle.

Ce revirement apparent n'est pas une simple contradiction mineure. C'est le signe que la dépendance stratégique des États-Unis à l'égard de leur propre tissu technologique est en train de générer des fractures au sein même du gouvernement, et que ces fractures ont des conséquences économiques et géopolitiques qu'aucun fonctionnaire ne peut se permettre de sous-estimer.

Quand un actif national devient un problème d'acquisition

L'origine du conflit est précise : Anthropic a refusé d'autoriser que ses modèles d'IA soient utilisés dans des armes autonomes ou dans des programmes de surveillance domestique massive. Il ne s'agissait pas d'une position philosophique générique. C'était une clause opérationnelle concrète dans les négociations contractuelles, et le Pentagone n'était pas disposé à l'accepter.

Ce qui s'ensuivit illustre clairement la différence entre deux logiques institutionnelles qui opèrent aujourd'hui en parallèle au sein du gouvernement américain. La logique militaire recherche un accès illimité à une technologie pouvant être intégrée dans des systèmes de décision autonomes. La logique civile, représentée en l'occurrence par le Trésor et la Maison-Blanche, voit en Anthropic un actif stratégique pour la compétitivité nationale en matière de cybersécurité, de banque et de la course mondiale à l'intelligence artificielle.

La tension entre ces deux logiques a éclaté au grand jour lorsqu'il a été divulgué que pratiquement toutes les agences fédérales, à l'exception du Département de la Défense, souhaitaient utiliser la technologie d'Anthropic. Cette information, confirmée par des sources internes à l'administration auprès d'Axios, transforme l'étiquette apposée par le Pentagone en ce que le cofondateur Jack Clark a décrit comme un « conflit contractuel ponctuel », et non comme un verdict sur la société.

Le problème financier pour Anthropic demeure bien réel. La désignation de risque dans la chaîne d'approvisionnement ne disparaît pas du simple fait que d'autres agences souhaitent acquérir ses produits. Tant que le litige progresse sans calendrier défini, la société opère sous une incertitude juridique qui pèse sur toute négociation à long terme avec le secteur public.

Le modèle qui a refusé un contrat militaire est arrivé en deuxième position dans l'App Store

Il existe dans cet épisode une mécanique de marché qui mérite une attention particulière. Lorsque OpenAI a annoncé son accord avec le Pentagone le 1er mars 2026, la réaction du marché grand public fut immédiate : Claude d'Anthropic est monté à la deuxième place de l'App Store. La décision d'une entreprise de signer un contrat militaire avait propulsé les téléchargements de sa concurrente.

Ce fait n'est pas anecdotique. Il révèle qu'il existe un segment d'utilisateurs, probablement large, qui perçoit la position d'Anthropic sur les applications militaires non pas comme une faiblesse commerciale, mais comme une différenciation de produit. En termes d'économie unitaire, cette perception se traduit par une acquisition organique d'utilisateurs sans dépense en marketing. C'est la démonétisation du positionnement éthique convertie en avantage concurrentiel.

À cela s'ajoute le signal envoyé par Bessent et le président de la Réserve fédérale, Jerome Powell, qui ont en avril exhorté les principales banques du pays à tester Mythos, le nouveau modèle d'Anthropic. Lorsque les deux fonctionnaires financiers les plus influents du pays recommandent activement une technologie spécifique au secteur bancaire, ils tracent un chemin d'adoption qui ne dépend pas des contrats de défense. Le marché financier, avec ses exigences de conformité réglementaire et sa sensibilité aux risques de réputation, peut s'avérer tout aussi lucratif, voire davantage, que le secteur militaire — et avec moins de friction réglementaire.

Ce qui se produit, vu sous l'angle des phases technologiques, est une transition accélérée de la phase de Désillusion à la phase de Disruption sur le marché de l'IA gouvernementale. Pendant des années, les modèles de langage ont promis de transformer l'administration publique sans le démontrer de façon tangible. Le conflit entre Anthropic et le Pentagone a paradoxalement accéléré la clarification : quelles agences sont prêtes à intégrer l'IA de manière responsable, et lesquelles restent prisonnières de schémas d'acquisition conçus pour le matériel militaire conventionnel.

La fracture interne qu'aucun PDG ne devrait ignorer

Pour toute entreprise qui négocie aujourd'hui avec des gouvernements son intégration dans des infrastructures critiques, le cas Anthropic offre un schéma qui se reproduira. Les institutions gouvernementales ne sont pas monolithiques ; ce sont des coalitions d'agences aux incitations, aux budgets et aux cultures organisationnelles distinctes. Traiter un gouvernement comme un client unitaire constitue la première erreur de conception stratégique.

Anthropic a géré cette complexité avec une précision qui mérite analyse. Tandis que le litige avec le Pentagone avançait, la société a maintenu actifs ses canaux de communication avec d'autres branches du gouvernement — non pas comme une concession tactique, mais comme une posture structurelle. Clark l'a confirmé explicitement en déclarant que le différend n'interromprait pas les séances d'information de la société au gouvernement concernant ses modèles. Cette distinction — entre le contrat et la conversation — est celle qui a préservé le capital diplomatique nécessaire pour que la réunion avec Wiles et Bessent puisse avoir lieu le 17 avril.

Le risque qui demeure, et qu'aucune réunion productive ne résout à elle seule, est l'asymétrie de pouvoir dans le litige. Le Département de la Défense administre le plus grand budget d'acquisition technologique de la planète. Une entreprise privée, aussi solide que soit sa position technique et sa légitimité auprès des autres agences, fait face à des coûts juridiques, des délais et des pressions institutionnelles qui peuvent éroder sa position de négociation avec le temps.

Partager

Vous pourriez aussi aimer