Il divieto di Claude in Difesa rivela il nuovo collo di bottiglia: licenze, controllo e catena di fornitura
La tensione tra Anthropic e il Dipartimento della Difesa degli Stati Uniti è passata da una negoziazione contrattuale a una misura che ridefinisce come viene acquistata e impiegata l'IA in ambienti critici: il Pentagono ha designato Anthropic come "rischio per la catena di fornitura" e ha costretto i contraenti e i fornitori della base industriale della difesa a certificare di non utilizzare modelli Claude in nessun lavoro relativo al Dipartimento.
Parallelamente, il confronto segna una linea operativa. Da un lato, Anthropic insiste su "linee rosse" di utilizzo: che Claude non sia utilizzato per vigilanza di massa sugli americani e che non sia usato in armi completamente autonome o nella selezione degli obiettivi senza coinvolgimento umano. Dall'altro lato, il Pentagono richiede una licenza ampia per utilizzare la tecnologia “per tutti gli scopi lecito”, e attraverso il suo portavoce ha sostenuto di non avere interesse nella vigilanza di massa né in armi autonome senza umani coinvolti, ma anche di non permettere a un'azienda di dettare termini che influenzino decisioni operative.
Fino ad ora, la maggior parte delle coperture si è concentrata sulla frizione etica o politica. Il punto aziendale rilevante è un altro: l'IA non è più governata solo da politiche interne, ma anche da clausole di licenza, audit dei stack e certificazioni obbligatorie. In difesa, quel meccanismo diventa una leva di potere comparabile —e talvolta superiore— al rendimento stesso del modello.
La vera negoziazione non era sull'IA, ma su una licenza senza attriti
La notizia si comprende meglio se letta come una disputa per il controllo d'uso. Anthropic aveva ottenuto un contratto da 200 milioni di dollari per sviluppare capacità di IA per la sicurezza nazionale, e Claude veniva già usato in reti militari sensibili, anche classificate secondo i rapporti citati. Eppure, dopo “mesi” di negoziazioni, il Pentagono ha presentato un “best and final offer” con una condizione centrale: consentire l'uso irrestricto per tutti i fini leciti, con una scadenza fissata.
La differenza tra “uso lecito” e “uso con restrizioni esplicite” non è semantica. Negli acquisti pubblici, “per ogni fine lecito” equivale a minimizzare frizione legale e operativa: riduce contenziosi, accelera implementazioni, abilita riutilizzo del sistema tra unità, e evita di dover rinegoziare ogni volta che cambia una missione. Per il Pentagono, quell'elasticità è una proprietà del prodotto.
Per Anthropic, invece, l'elasticità è proprio il rischio: le loro linee rosse cercano di immobilizzare determinati casi d'uso all'interno del contratto stesso, non come una promessa verbale o una politica che domani può essere reinterpretata. L'azienda ha sostenuto pubblicamente che il nuovo linguaggio “ha praticamente annullato i progressi” in quei limiti e che il testo presentava “legalese” che funzionerebbe come vie d'uscita per eludere salvaguardie.
Il risultato pratico è che il disaccordo non si è risolto con una modifica minore, ma con un'escalation strutturale: esclusione formale dalla catena di fornitura. Quando una relazione commerciale passa da contratto a lista nera, il messaggio è chiaro: l'acquirente ha smesso di trattare il prezzo e ha iniziato a standardizzare il rischio.
L'etichetta “rischio di catena di fornitura” trasforma il modello in materiale radioattivo
La designazione di “supply chain risk” ha un effetto economico maggiore rispetto alla perdita di un contratto isolato. L'ordine che tutti i contraenti certificano di non utilizzare Claude trasforma una decisione d'acquisto in una politica di infrastruttura. Non si tratta più se Anthropic venda direttamente al Pentagono, ma che qualsiasi azienda che tocchi il budget del Dipartimento sia incentivata a espellere Claude dalla propria architettura.
Ciò colpisce in particolare dove l'IA è già incorporata: assistenti di programmazione, analisi del testo, automazione documentale e strumenti interni. Il briefing menziona che Claude viene ampiamente utilizzato come assistente di codice e in reti governative sensibili, e che il CEO di Anthropic ha dichiarato che circa l'80% dei suoi ricavi proviene da clienti aziendali. Questa combinazione di ricavi è importante perché l'area della difesa e la sua periferia —contraenti, subcontraenti, integratori— somigliano di più a “enterprise” che a “governo” in termini di processi di acquisto e implementazione.
La conseguenza immediata di un divieto trasversale è il costo di cambio imposto a terzi. Un grande contraente non deve solo spegnere un endpoint: deve auditare quali attrezzature lo usano, in quali flussi, con quali dati, e come sostituirlo senza rompere il rispetto delle normative. In pratica, questo tipo di mandato crea una preferenza per fornitori “certificabili” e un rifiuto automatico per quelli che potrebbero reintrodurre rischio regolatorio o contrattuale.
Inoltre, se il Pentagono riesce a far sì che la certificazione diventi la norma, si genera un modello: l'IA nella difesa è acquistata come si acquista la cyber-sicurezza critica, con elenchi di fornitori autorizzati e vietati. Il “prodotto” smette di essere il modello e diventa il pacchetto completo di permessi, tracciabilità e governance.
L'incentivo competitivo: vincere non è avere il miglior modello, ma essere il fornitore meno bloccante
Il briefing indica che il Pentagono ha già contratti con Google, OpenAI e xAI per capacità simili, e che Anthropic era tra le ultime a resistere nel integrarsi senza restrizioni in una rete interna militare. In un mercato dove vari modelli sono già “sufficientemente buoni” per molti casi d'uso, il differenziatore non è sempre la precisione: è disponibilità legale e operativa.
Dalla prospettiva dell'acquirente, il fornitore ideale nella difesa è quello che offre massima capacità con il minimo “non si può fare”. Ogni restrizione aggiuntiva implica lavoro interno: addestrare gli utenti, limitare i prompt, auditare le uscite, documentare le eccezioni e giustificare all'organo di comando. Anche se il Dipartimento afferma di non mirare alla vigilanza di massa né ad armi autonome senza umani, cerca di evitare che il contratto venga redatto in modo tale che un futuro scenario operativo diventi litigioso o si blocchi per interpretazione.
Ciò crea un vantaggio competitivo scomodo: i laboratori che accettano licenze ampie si posizionano come “a basso rischio di acquisizione”, mentre quelli che insistono su limiti contrattuali possono essere trattati come “ad alto rischio”, anche se la loro tecnologia è eccellente. La notizia suggerisce inoltre che l'esclusione potrebbe avvantaggiare i concorrenti ora considerati fornitori “sicuri” per lavori di difesa.
Per Anthropic, il dilemma riguarda il modello di business e il posizionamento: se il suo marchio si poggia su limiti d'uso, la sua proposta di valore può scontrarsi con l'acquirente istituzionale più grande e più sensibile a restrizioni. Se cede, potrebbe erodere la coerenza interna del suo prodotto e la sua narrativa commerciale. Se non cede, paga con accesso a un segmento che, per volume e per effetto traino, definisce standard.
Il fattore di coercizione: quando il Defense Production Act entra in gioco
Un punto che cambia il tono del conflitto è la menzione che il Pentagono sta considerando di invocare il Defense Production Act per guadagnare autorità più ampia sull'uso dei prodotti. Quel riferimento, citato nel briefing, funziona come un promemoria di asimmetria: in difesa, lo Stato non è solo cliente, è anche regolatore e, in casi estremi, può abilitare meccanismi straordinari.
In termini aziendali, questo riconfigura la negoziazione tradizionale tra fornitore e cliente. Il rischio non è solo perder il contratto da 200 milioni. Si tratta di affrontare un acquirente che può, se decide, tentare di trasformare una disputa contrattuale in un problema di capacità nazionale.
Allo stesso tempo, questa possibilità aumenta il valore di uno strumento che molte aziende sottovalutano: l’architettura di uscita. Per qualsiasi fornitore di IA che vende a governi o a settori regolati, la domanda operativa è se il cliente può migrare o sostituire senza fermare le operazioni. Se la sostituzione è semplice, il fornitore perde potere di negoziazione. Se è difficile, l'acquirente cercherà di evitare dipendenze fin dal primo giorno con clausole ampie o progettazioni multi-fornitore.
Qui emerge un modello che vedremo ripetersi: il cliente istituzionale promuoverà implementazioni dove il modello sia intercambiabile, e dove l’azienda di IA rimanga ridotta a un componente. La lotta per “tutti i fini leciti” è anche una lotta per evitare che il fornitore diventi un punto unico di veto.
La direzione del mercato: certificazione, governance e “IA come infrastruttura”
L'episodio invia un segnale per il mercato dell'IA aziendale, oltre la difesa. Quando un attore della dimensione del Dipartimento della Difesa formalizza un'esclusione per catena di fornitura, invia all'intera industria un messaggio di processo: bisognerà operare con elenchi di uso permesso, controlli di implementazione e capacità di audit continui.
Questo spinge le startup verso due strade. Una: diventare fornitori “compatibili con certificazione”, accettando licenze ampie e concentrandosi su controlli tecnici successivi, come logging, segmentazione dei dati e gestione delle identità. Due: mantenere limiti contrattuali come parte del prodotto, accettando che certi acquirenti strategici rimarranno esclusi.
Nessuna delle due strade è gratuita. La prima può facilitare le vendite ma costringe a investire in conformità e supporto; la seconda può preservare la coerenza del prodotto ma riduce il mercato accessibile e aumenta la probabilità di espulsione a causa di acquisti centralizzati. In entrambi i casi, il vincitore non sarà chi grida più forte, ma chi ha l'operazione più leggera per assorbire il costo di conformità, negoziazione e sostituzioni.
Nel breve termine, il divieto di Claude nel lavoro del Pentagono si legge come una punizione. Nel medio termine, è un precedente: l'IA entra in una fase in cui il valore si decide sia dal modello che dal suo inserimento contrattuale e dalla sua capacità di sopravvivere alle audit della catena di fornitura. Questo è infrastruttura, non laboratorio.
L'apprendimento operativo: in settori critici, il prodotto è il permesso d'uso
La lettura per gli esecutivi è diretta. Anthropic può avere un modello competitivo e una presenza reale in ambienti sensibili, ma in difesa il primo attributo è la utilità senza blocchi. Il Pentagono, dal canto suo, può dichiarare di non cercare determinati usi, ma negozia come se avesse bisogno della massima opzione futura, senza accettare che un fornitore imponga limiti espliciti.
Per qualsiasi azienda che venda IA a settori regolati, la lezione pratica è che la differenziazione non termina nelle prestazioni del modello. Il contratto, la licenza, le certificazioni e la capacità di audit diventano parte del prodotto e determinano chi rimane nella catena di fornitura e chi viene espulso per design.












