Quando il cliente è il Pentagono: la clausola che decide se la tua IA scala o si rompe
La riunione di martedì 24 febbraio 2026 tra il segretario alla Difesa, Pete Hegseth, e il CEO di Anthropic, Dario Amodei, si è conclusa con un messaggio operativo, e non filosofico: accesso “senza restrizioni” a Claude per il Pentagono entro le 17:01 di venerdì 27 febbraio, o conseguenze. Tra queste, la minaccia di catalogare Anthropic come “rischio per la catena di approvvigionamento” e la possibilità di attivare il Defense Production Act per forzare priorità e condizioni. In gioco ci sono fino a 200 milioni di dollari in contratti del Pentagono aggiudicati lo scorso anno a Anthropic, Google, OpenAI e xAI.
Il punto che la maggior parte delle coperture trascura è il più scomodo per qualsiasi leader di prodotto: quando il tuo cliente è lo Stato in modalità sicurezza nazionale, la vera discussione è chi controlla le condizioni d'uso e l'evoluzione del prodotto. Anthropic ha costruito la sua posizione pubblica su limiti espliciti, comprese le proibizioni su armi autonome e vigilanza domestica. Il Pentagono, a quanto riportato, spinge per termini di “tutti i fini legali” e per accesso senza attriti.
Inoltre, la tensione arriva con un dettaglio critico: Claude è l'unico modello utilizzato nelle operazioni più riservate del Pentagono, accessibile grazie all'alleanza di Anthropic con Palantir. Questa dipendenza ha dato vantaggio ad Anthropic, ma ha anche imposto un prezzo: in difesa, essere uno standard di fatto trasforma le tue politiche interne in un punto di negoziazione dello Stato.
L'ultimatum non riguarda l'“IA woke”, ma la sovranità del prodotto
Hegseth ha inquadrato il conflitto in termini di “IA non ideologizzata” e di priorità al combattente, e il suo portavoce, Sean Parnell, ha chiarito che la relazione con Anthropic è “sotto revisione”. Oltre al linguaggio politico, il meccanismo è chiaro: il Pentagono richiede capacità operativa e controllo contrattuale. In questo ambito, le dichiarazioni pubbliche fungono da leva, ma ciò che conta è la redazione delle clausole.
La minaccia di etichettare Anthropic come “rischio per la catena di approvvigionamento” è particolarmente aggressiva perché non solo influisce sul contratto diretto. Quella categoria obbliga, di fatto, i contraenti e i partner a ridurre o interrompere i rapporti per non contaminare le proprie catene di conformità. È un colpo progettato per aumentare il costo della negativa oltre i 200 milioni del programma AI.
Il riferimento al Defense Production Act punta allo stesso obiettivo: trasformare una negoziazione commerciale in una relazione di priorità statale. Storicamente, quella legge è stata utilizzata per riallocare capacità industriali in momenti di urgenza. Applicata all'IA, il precedente è delicato: implicherebbe che il governo non solo acquista capacità, ma cerca di influenzare in modo diretto le condizioni di addestramento, dispiegamento o salvaguardie.
Ciò che rende questo caso unico è il punto di partenza: Anthropic era già dentro. Secondo le informazioni disponibili, Claude è stato utilizzato persino in un'operazione classificata di alto profilo in Venezuela, accessibile tramite l'integrazione con Palantir. Una volta che un fornitore entra a quel livello, il cliente smette di acquistare “software” e inizia ad acquisire vantaggi. In quella transizione, la tolleranza alle restrizioni del fornitore diminuisce drasticamente.
L'economia del contratto: 200 milioni sono ricavi, ma anche dipendenza
Sul piano finanziario, “fino a 200 milioni” è un numero grande per qualsiasi azienda, ma in difesa la cifra è solo la superficie visibile. Ciò che conta è l'effetto composto: contratti, estensioni, integrazioni e, soprattutto, il segnale al resto del mercato che il tuo modello è idoneo per le esigenze più impegnative. Per un'azienda come Anthropic, mantenere lo status di modello predefinito nelle operazioni classificate non è solo fatturato; è un canale di distribuzione e una barriera competitiva.
Il problema è che quel canale arriva con un modello che ho visto ripetersi in altri settori regolati: il cliente istituzionale tende a trasformare un fornitore critico in un pezzo sostituibile attraverso due mosse simultanee. Prima, aumenta la pressione per ottenere condizioni migliori. Seconda, accelera le alternative per ridurre il tuo potere di negoziazione. Nel briefing appare chiaro che il Pentagono sta già parlando con altri attori, e che xAI ha accettato questa settimana l'integrazione di Grok in sistemi classificati. Anche Google con Gemini potrebbe apparire come possibile sostituto se consente un uso più ampio.
La variabile che importa qui è il tempo. Una sostituzione totale in contesti classificati non avviene dall'oggi al domani, ma può accadere abbastanza rapidamente da rompere l'esclusività. E non appena l'esclusività viene rotta, il fornitore perde la capacità di difendere le proprie condizioni come “standard”. Questo è il cuore dell'ultimatum: ridurre il margine di Anthropic prima che il mercato e la burocrazia si adattino alla sua posizione.
Dal punto di vista della sostenibilità aziendale, questo tipo di ricavi è a doppio taglio. Forniscono validazione e liquidità, ma inducono anche architetture di conformità e squadre di risposta che aumentano il costo fisso. Se in aggiunta il cliente spinge per accesso irrestricto, il fornitore è costretto a investire in controllo, audit e sicurezza operativa per non perdere governance. Il contratto può finanziare la crescita, ma può anche imporre una struttura che ti renda meno agile.
Salvaguardie come specifica del prodotto: il conflitto tra affidabilità e “tutti i fini legali”
Anthropic ha comunicato che continuerà a supportare la missione di sicurezza nazionale “in linea con ciò che i nostri modelli possono fare in modo affidabile e responsabile” e che sono in discussione di buona fede. Questa frase è, in realtà, un riassunto di una tensione ingegneristica e di rischio: nelle operazioni critiche, un modello non è prezioso solo per la sua potenza, ma per la prevedibilità del suo comportamento sotto pressione.
Quando il cliente richiede “uso per tutti i fini legali”, cerca di eliminare l'ambiguità contrattuale per non essere vincolato a interpretazioni del fornitore. Per il fornitore, però, accettare quel paracadute equivale ad assumere un'esposizione reputazionale e operativa per usi che potrebbero essere legali, ma che stressano i limiti tecnici del modello o la sua politica pubblica.
Nel briefing appare l'elemento che accelera il conflitto: Anthropic avrebbe consultato Palantir riguardo al ruolo di Claude nell'operazione in Venezuela, e questo scambio è stato segnalato al Pentagono. Senza entrare in interpretazioni, ciò che è rilevante per un dirigente è comprendere che, in defense, la tracciabilità delle conversazioni e delle escalation interne è parte del rischio contrattuale. La semplice esistenza di una consulenza può innescare revisioni formali e reazioni politiche.
È anche chiave che, secondo fonti del Pentagono, Claude è all'avanguardia in applicazioni rilevanti, incluse capacità offensive di cybersicurezza. Ciò rende il modello più difficile da sostituire rapidamente e allo stesso tempo rende più costosa qualsiasi restrizione. In termini di prodotto, è il caso tipico di una tecnologia che è “troppo buona” perché il cliente accetti condizioni che percepisce come esterne alla sua catena di comando.
Questo è l'insegnamento operativo: le salvaguardie non possono essere solo una dichiarazione di principi su una pagina web. Nei mercati ad alta criticità, le salvaguardie devono tradursi in meccanismi verificabili, eccezioni chiaramente definite e percorsi di escalation. Altrimenti, il cliente lo interpreta come arbitrario e lo convertirà in un punto di rottura.
Il vero rischio: che lo Stato trasformi il modello in infrastruttura e catturi la governance
La minaccia di “rischio della catena di approvvigionamento” e la menzione del Defense Production Act puntano a un obiettivo di fondo: evitare che un fornitore privato condizioni decisioni operative. Hegseth lo ha detto esplicitamente, secondo quanto riportato: non permetterà a un’azienda di dettare condizioni secondo cui il Pentagono prende decisioni.
Per il settore IA, l'implicazione è strutturale. Se un modello diventa infrastruttura di difesa, lo Stato cercherà meccanismi per garantire disponibilità, continuità e controllo. Questo può assumere tre forme.
Primo: contratti più severi con obblighi di servizio e accesso, minimizzando le restrizioni del fornitore.
Secondo: diversificazione obbligatoria, finanziando più modelli per ridurre la dipendenza.
Terzo: intervento legale per prioritizzare capacità considerate critiche.
In ciascuna di queste tre situazioni, il fornitore perde parte della sua sovranità del prodotto. E questo non è teoria; è una conseguenza logica quando il cliente ha un mandato di sicurezza nazionale e il budget per costruire ridondanza.
Parallelamente, c'è anche un effetto di mercato: se un attore accetta termini più ampi, come già fatto da xAI con Grok in classificato, aumenta la pressione competitiva sugli altri. Jared Kaplan, di Anthropic, aveva già sottolineato in un altro contesto che gli impegni unilaterali non funzionano se i rivali avanzano. In difesa, tale dinamica si moltiplica: l'acquirente premia il fornitore che riduce l'attrito contrattuale.
Dalla prospettiva della scalabilità organica, questo episodio ricorda qualcosa di fondamentale: quando si vende a governi in contesti critici, la vendita non si chiude con il collaudo. Si chiude quando l'azienda progetta un'operazione capace di sopravvivere a audit, cambiamenti politici e rinegoziazioni aggressive. Non farlo lascia l'azienda intrappolata tra reputazione e liquidità, senza controllo del ritmo.
L'uscita esecutiva è contrattuale e tecnica, non comunicativa
Anthropic ha poco margine per risolvere questo con messaggi. Il Pentagono non sta negoziando una narrazione; sta negoziando capacità. Ciò che resta è una soluzione ibrida di contratto e architettura.
Una strada plausibile, coerente con quanto riportato, è che Anthropic aggiusti le politiche per funzioni governative senza accettare un'apertura totale, mantenendo limiti su sorveglianza di massa e armi autonome. Tale soluzione richiede precisione: definire chiaramente cosa significa “senza restrizioni” in contesti classificati, quali controlli esistono sull'uso, quali audit sono accettati e quali eccezioni vengono concesse.
Il Pentagono, dal canto suo, sta già costruendo alternative con altri modelli. Ciò riduce il valore dell'esclusività di Claude e trasforma la negoziazione in una corsa contro il tempo. Se Anthropic cede troppo rapidamente, diluisce la sua posizione. Se non cede, rischia l'etichetta di catena di approvvigionamento e il blocco indiretto da parte dei contraenti.
La lettura strategica finale è semplice: nell'IA applicata alla difesa, il prodotto non è solo il modello, ma l'intero pacchetto di accesso, controllo, tracciabilità e responsabilità. L'azienda che non traduce questo in specifiche eseguibili finisce per negoziare sotto minaccia, perché la sua proposta è percepita come incompleta.











