Il Pentagono ha urtato contro le “linee rosse” di Anthropic e ha scoperto un fatto scomodo: nell'IA, la dipendenza non si negozia con ultimatum
La sequenza è rapida e rivelatrice. Nel luglio 2025, Anthropic ha firmato un contratto da 200 milioni di dollari con il Dipartimento della Difesa degli Stati Uniti per implementare Claude, descritto nel rapporto come il primo modello di IA avanzata approvato per reti classificate. L'accordo prevedeva due restrizioni esplicite: non utilizzare Claude per sorveglianza domestica di massa sugli americani e non usarlo per armi totalmente autonome capaci di selezionare e attaccare obiettivi senza intervento umano.
Nel gennaio 2026, un memorandum strategico sull'IA del Segretario della Difesa, Pete Hegseth, ha introdotto una svolta contrattuale: richiedere un linguaggio di “qualsiasi uso legale” nei contratti di IA del Pentagono. A fine febbraio, la pressione è aumentata con ultimatum e minacce di azioni legali. Il 27 febbraio, dopo la scadenza senza accordo, il presidente Donald Trump ha pubblicato una direttiva per “interrompere immediatamente” l'uso della tecnologia di Anthropic nelle agenzie federali, con sei mesi di tempo per chi già collaborava. Nello stesso giorno, Hegseth ha designato Anthropic come “rischio per la catena di approvvigionamento della sicurezza nazionale”, aggiungendo una restrizione in più: nessun appaltatore o partner che lavora con l'esercito poteva mantenere attività commerciali con Anthropic.
E poi è arrivata la svolta. All'inizio di marzo 2026, i rapporti hanno indicato che le trattative riprendevano. In parallelo, una fonte ha descritto un “momento di colpo”: i leader della difesa avrebbero misurato quanto fosse indispensabile Anthropic e il rischio operativo di perdere l'accesso. In un commento attribuito da Fortune a Emil Michael, un funzionario del Pentagono, appare una frase chiave: “Voglio tutti. Voglio dare loro gli stessi termini perché ho bisogno di ridondanza”.
Dal mio punto di vista di innovazione e comportamento del “cliente” —in questo caso, lo Stato— l'importante non è il dramma politico. L'importante è il meccanismo: quando un'organizzazione integra un modello di IA in analisi, pianificazione e operazioni, smette di comprare un prodotto. Inizia a contrattare continuità operativa.
Il conflitto reale non è stato “IA sì o IA no”, ma governance dell'uso
La discussione pubblica può essere letta come uno scontro di principi, ma commercialmente è stata uno scontro di diritti di utilizzo. Anthropic ha mantenuto due salvaguardie come non negoziabili: il divieto di sorveglianza domestica di massa e il divieto di utilizzo in armi totalmente autonome. Il Pentagono ha cercato di sostituirle con un ombrello di “qualsiasi uso legale”, che secondo la valutazione di Anthropic era accompagnato da un linguaggio che avrebbe permesso di ignorare le salvaguardie “a piacere”.
In una tipica negoziazione aziendale, “uso consentito” è un allegato. Qui è il cuore del prodotto. Perché nell'IA avanzata, l'interfaccia di valore non è solo il modello; è il sistema di permessi, tracciamento, auditing e responsabilità che definisce cosa si può fare con quel modello in contesti ad alto rischio.
Il Pentagono ha tentato qualcosa di simile a quanto fanno molte grandi organizzazioni quando sentono che un fornitore è critico: convertire un contratto dai limiti chiari in una licenza ampia che riduca le frizioni interne future. Nella loro logica, “qualsiasi uso legale” semplifica la governance contrattuale e evita di dover rinnegociare ogni volta che cambia la dottrina, l'operazione o l'ambiente geopolitico.
Anthropic, al contrario, stava difendendo un altro modo di proteggere il suo asset. Non solo per reputazione, anche per esposizione commerciale e normativa. Se un fornitore accetta che il suo prodotto possa essere utilizzato in scenari che superano il suo quadro di sicurezza, finisce per vendere qualcosa di più costoso del modello: vende responsabilità incerta.
Il punto cruciale è che entrambe le parti stavano ottimizzando per rischi diversi. Il cliente voleva elasticità e controllo; il fornitore voleva limiti verificabili. Il conflitto non prova che una delle due posizioni sia “buona” o “cattiva”. Prova che, quando l'IA entra in missioni critiche, le clausole smettono di essere giuridiche e diventano architettura del business.
La designazione di “rischio per la catena di approvvigionamento” ha trasformato un disaccordo contrattuale in un problema di continuità
L'etichetta di “Rischio per la catena di approvvigionamento per la sicurezza nazionale” funziona come un missile di segnalazione: non è necessario che sia definitiva per generare impatto. A breve termine, genera incertezza in tutta la rete di appaltatori e subappaltatori che non possono permettersi ambiguità sul rispetto delle normative.
Il briefing menziona che sono stati considerati meccanismi come il Defense Production Act e l'autorità sotto 10 U.S.C. § 3252 per escludere Anthropic nei subappalti di sistemi di sicurezza nazionale. Si osserva anche che Anthropic ha sostenuto che, anche se la designazione fosse stata sostenuta legalmente, potrebbe limitare l'uso di Claude nel lavoro di contratti del Dipartimento della Difesa, non necessariamente nel lavoro commerciale generale.
In termini di business, questo dettaglio importa meno dell'effetto immediato: un'organizzazione che dipende da Claude per analisi, pianificazione, ciberoperazioni e simulazione, e una costellazione di fornitori che lo utilizzano per fornire al Pentagono, si trovano di fronte a uno scontro di vie. Non si sostituisce dall'oggi al domani un modello distribuito in ambienti sensibili, non solo per costo, ma anche per tempi di migrazione, rivalidazione, adattamento di flussi, addestramento e ri-certificazione interna.
Per questo motivo, la frase del “momento di colpo” è tanto credibile quanto dinamica, senza necessità di eccessi. Quando si taglia l'accesso a un elemento integrato nei processi critici, il “cliente” scopre che quello che ha comprato non era uno strumento. Era un impalcato operativo.
Nel consumo, questo accade quando un servizio diventa abitudine e poi infrastruttura. Nella difesa, accade quando una capacità diventa la “spina dorsale” dell'analisi. La reazione del Pentagono suggerisce che Claude avesse raggiunto quella soglia.
La lezione strategica: lo Stato sta imparando a comprare IA come se fosse infrastruttura critica
La citazione attribuita a Emil Michael —“ho bisogno di ridondanza”— rivela un modello di maturità negli acquisti tecnologici: la priorità non è più “il miglior modello” ma resilienza per diversificazione. Nella pratica, ciò significa mantenere alternative attive (Anthropic, OpenAI e altri) affinché nessuna interruzione, disputa contrattuale o cambiamento di condizioni lasci l'organizzazione senza capacità.
Questo principio è vecchio nei settori dell'energia, telecomunicazioni e logistica. Nell'IA avanzata, sta cominciando ad applicarsi in ritardo perché il mercato si comporta ancora come se si stesse comprando software tradizionale. Il caso Anthropic dimostra che quell'analogia non è più sufficiente.
Primo, perché l'“IA” qui non è un modulo isolato: è implementata in reti classificate ed è utilizzata per funzioni sensibili. Secondo, perché il potere di negoziazione cambia quando il fornitore è uno dei pochi capaci di soddisfare requisiti tecnici e di sicurezza. Terzo, perché la governance dell'uso non si risolve con un checkbox contrattuale: diventa parte del design del sistema.
Se il Pentagono insiste nel standardizzare “qualsiasi uso legale” per tutti, sta cercando di convertire l'IA avanzata in una merce contrattuale. Il mercato, per ora, non è una merce. Ci sono pochi fornitori, e alcuni hanno linee rosse esplicite.
Il risultato probabile è che l'acquisto pubblico evolva verso modelli di acquisizione a strati:
Niente di tutto questo garantisce armonia, ma riduce il rischio che una disputa contrattuale si trasformi in una crisi operativa.
Il vero “prodotto” di Anthropic per il Pentagono era la fiducia operativa, non solo le prestazioni del modello
Il briefing ricorda che Anthropic si era già posizionata come inusualmente “amica alla difesa” secondo i parametri di Silicon Valley: è stata pioniera nella distribuzione di modelli in reti classificate, ha offerto modelli personalizzati per clienti della sicurezza nazionale, e Claude veniva utilizzato in molteplici funzioni all'interno dell'apparato di difesa. Si menziona anche che l'azienda ha rifiutato ingenti entrate smettendo di offrire accesso a società legate al Partito Comunista Cinese e che ha chiuso tentativi di abuso di Claude in ciber attacchi sponsorizzati.
Non è necessario convertirlo in epica per trarre l'apprendimento commerciale: il Pentagono non stava comprando solo “capacità di generazione di testo”. Stava contrattando un pacchetto più ampio di segnali di allineamento, risposta e controllo. Nei mercati ad alto rischio, quei segnali equivalgono a una moneta.
Quando successivamente il governo ordina di “interrompere immediatamente” e contrassegna il fornitore come rischio, la moneta si svaluta per entrambe le parti.
- Per il Pentagono, perché l'interruzione pubblica trasmette al resto della base industriale che la continuità può dipendere dalla politica del momento.
- Per Anthropic, perché l'etichetta di rischio semina dubbi nei subappaltatori, anche se successivamente si negozia un'uscita.
Qui appare un principio scomodo per i grandi acquirenti: il potere d'acquisto non elimina la dipendenza quando l'asset è scarso e l'integrazione è profonda. La leva smette di essere il volume e passa a essere il design del portafoglio e la capacità di migrare.
Il “momento di colpo” è il segnale che l'acquirente si è scontrato con la realtà dell'implementazione. È la differenza tra minacciare dalla fornitura e operare dalla missione.
La direzione che si impone: progettare contratti che comprino capacità senza comprare conflitti
Questo episodio fornisce una linea guida per qualsiasi organizzazione —pubblica o privata— che stia integrando IA in processi essenziali.
1) Separare il desiderio di controllo totale dalla necessità di continuità. Il controllo contrattuale assoluto tende a massimizzare la frizione con i fornitori che proteggono i limiti di uso. La continuità si massimizza con ridondanza e con meccanismi di sostituzione realisti.
2) Trattare le salvaguardie come parte del prodotto. Nell'IA avanzata, le restrizioni di utilizzo non sono capricci; sono un componente di rischio e reputazione. Per l'acquirente, sono anche un modo di disciplina interna: obbligano a documentare, giustificare e auditare usi sensibili.
3) Costruire “opzioni” prima di averne bisogno. La ridondanza non si improvvisa quando c'è già un'ordinanza di uscita tra sei mesi. Richiede integrazione parallela, prove, validazione e addestramento operativo.
La frase attribuita a Emil Michael punta in questa direzione: mantenere “tutti” con termini comparabili per sostenere la ridondanza. Non è romanticismo multivendor; è comprare libertà di manovra.
Il comportamento del “consumatore” istituzionale in questa notizia è trasparente: il Pentagono stava contrattando capacità immediata e affidabile per analizzare e decidere in contesti di alta pressione. Lo scontro con Anthropic dimostra che, quando l'IA diventa indispensabile, il lavoro che l'utente realmente acquista non è un modello più potente, ma continuità operativa con limiti di utilizzo chiari e sostenibili.












