Quando "uso legale" collide con la sicurezza: la battaglia su chi governa l'IA militare
È raro vedere un fornitore tecnologico dire "no" quando ci sono fino a 200 milioni di dollari sul tavolo e il cliente è lo Stato con il budget per la difesa più grande del mondo. Eppure, Anthropic lo ha fatto.
Il 26 febbraio 2026, il suo CEO, Dario Amodei, ha dichiarato che l'azienda "non può, in coscienza", accettare la richiesta del Dipartimento della Difesa degli Stati Uniti di rimuovere le salvaguardie da Claude. Al centro del disaccordo ci sono due limiti: vietare l'uso del modello nella sorveglianza domestica massiva e in armi letali completamente autonome. Secondo la copertura di The Guardian, il Pentagono, sotto il segretario alla Difesa Pete Hegseth, ha risposto con un ultimatum: se Anthropic non consente l'uso di Claude per “tutti gli scopi legali” in ambienti classificati, il contratto può essere annullato alle 17:01 ET del 27 febbraio e l'azienda potrebbe essere etichettata come “rischio per la catena di fornitura”. Un'etichetta solitamente associata a minacce esterne, non a una società statunitense.
La superficie della notizia sembra un conflitto di valori. La meccanica reale è più scomoda: il governo sta cercando di trasformare la governanza di un modello in una clausola contrattuale, e l'azienda sta cercando di convertire le proprie politiche di sicurezza in una condizione di servizio. In mezzo ci sono gli operatori che necessitano di capacità e i contribuenti che hanno bisogno di garanzie.
Il contratto come campo di battaglia per il controllo del modello
Non è solo la presenza di un contratto fino a 200 milioni di dollari a essere importante. È la natura dell'attivo che si sta acquistando. Un modello fondazionale non è un software tradizionale che viene consegnato e resta “chiuso” in una versione. È un sistema che si aggiorna, si affina, si integra con flussi di dati e acquisisce nuove capacità nel tempo. In pratica, acquistare IA oggi è più simile a contrattare un’infrastruttura critica che a licenziare un prodotto.
Per questo il Pentagono spinge per la formula “tutti gli scopi legali”. Secondo la sua logica, qualsiasi restrizione aggiuntiva alla legge equivale a un fornitore privato che impone limiti operativi allo Stato. Il sottosegretario alla Ricerca e all'Ingegneria, Emil Michael, in dichiarazioni citate da The Guardian, inquadra il problema come una difesa delle libertà civili contro decisioni di “BigTech”, e mette in dubbio che una società possa stabilire confini oltre le norme approvate democraticamente.
Anthropic, d'altra parte, sostiene che il linguaggio proposto consentirebbe di ignorare a piacimento le sue salvaguardie. Un portavoce anonimo ha descritto che l'ultima redazione ricevuta dal DoD mostrava “virtualmente nessun progresso” e che il “compromesso” era principalmente legalista. L'azienda non discute in generale l'uso militare; Amodei ha persino scritto di credere nell'“importanza esistenziale” dell'uso dell'IA per difendere gli Stati Uniti. Discutono due applicazioni dove, secondo la loro tesi, il modello potrebbe “minare valori democratici”.
Questo è il segnale strategico per il mercato: la negoziazione non verte più su prezzo, prestazioni o supporto. Si tratta di chi ha la chiave di bypass. Se il cliente può disattivare i controlli “quando lo desidera”, le salvaguardie diventano mera decorazione. Se il fornitore può bloccare categorie di uso anche in ambienti classificati, lo Stato sente di esternalizzare la sovranità operativa.
La minaccia di etichettare Anthropic come “rischio per la catena di fornitura” amplifica il conflitto: non colpisce solo il contratto specifico, ma la capacità futura di vendere al governo e di essere accettato da appaltatori come Boeing o Lockheed Martin, ai quali sarebbe stato chiesto di valutare la propria esposizione, secondo la stessa copertura. È uno strumento di potere che riordina gli incentivi dell'intero settore.
La sicurezza smette di essere un principio e diventa architettura del prodotto
Dall'esterno, “salvaguarde” suona come una politica aziendale. In realtà, è design di prodotto e, per estensione, design di potere. Quando un modello proibisce la sorveglianza massiva o armi autonome, limita la scalabilità di determinati usi. E qui emerge la frizione: l'IA riduce i costi marginali e rende replicabili ciò che prima era costoso.
Nella sorveglianza, il cambiamento è brusco. La differenza tra analizzare manualmente informazioni disperse e automatizzare classificazione, prioritizzazione e correlazione rappresenta il passaggio da un'operazione costosa a una capacità potenzialmente ubiqua. La stessa logica si applica a sistemi letali: l'automazione riduce la frizione, accelera i cicli decisionali e sfuma la responsabilità se non esiste un design esplicito di supervisione umana.
Il Pentagono insiste sul fatto che si attiene a leggi come la Quarta Emendamento, secondo gli argomenti citati, e che non deve accettare ulteriori limiti privati. Questo punto è coerente sul piano istituzionale. Il problema è che “legale” e “prudente” non sono sinonimi in sistemi che amplificano capacità. Un uso può essere legale e, nondimeno, costruire un precedente operativo difficile da disarmare.
Qui vedo il nucleo dell'economia politica dell'IA: la discussione si sposta da “cosa può fare il modello” a “cosa può fare il sistema che lo circonda”. Un modello in un ambiente classificato, integrato tramite piattaforme come Amazon e Palantir (menzionate nel racconto), non è un chatbot. È un componente in una catena di decisione. In quel contesto, le salvaguardie sono meno una posizione morale e più un modo di gestire il rischio sistemico.
Quello che Anthropic sta difendendo, almeno nel suo inquadramento pubblico, è un'idea di IA come intelligenza aumentata, non come sostituto del giudizio. Se un sistema viene utilizzato per sorveglianza massiva o per delegare letalità, l'umano smette di essere supervisore e passa a essere, nella migliore delle ipotesi, un firmatario tardivo. Questa è la frontiera che l'azienda cerca di fissare nel contratto.
Un precedente che riordina il mercato dei fornitori di IA per la difesa
Il mercato aveva già iniziato a consolidare una tesi: il Dipartimento della Difesa non desidera un fornitore, vuole un catalogo. L'estate scorsa, il Chief Digital & AI Office ha assegnato contratti fino a 200 milioni a Anthropic, Google, xAI e OpenAI per la personalizzazione dell'IA generativa per usi militari, secondo The Guardian. L'idea ovvia è evitare la dipendenza da un singolo attore e accelerare le capacità.
Ma il dettaglio che cambia la negoziazione è che Anthropic, secondo la stessa fonte, è il unico modello usato in ambienti classificati fino ad oggi, il che le dava un vantaggio in esperienza e, pertanto, in potere negoziale. Questo potere è precisamente ciò che il Pentagono cerca di neutralizzare standardizzando la clausola di “tutti gli scopi legali” come baseline contrattuale.
Se questa clausola diventa norma, il messaggio per il resto dei fornitori è chiaro: chiunque voglia entrare nei circuiti classificati deve accettare che le proprie politiche interne non funzionino come limiti. Non è necessario che il governo prometta di utilizzarli per sorveglianza massiva o armi autonome. Ha solo bisogno di assicurarsi il diritto di farlo se la propria interpretazione legale lo consente.
Parallelamente, si apre una strada competitiva. La nota menziona che xAI ha accettato lo standard di “tutti gli scopi legali” per lavori classificati. Questo genera un rischio finanziario immediato per Anthropic: perdere il contratto non significa solo perdere potenziali entrate, ma cedergli terreno in un segmento dove la credibilità si costruisce con dispiegamenti reali, non con promesse.
C'è anche un costo per il Pentagono se esegue la minaccia. Il portavoce Sean Parnell ha avvertito su X che smettere di consentire quei usi metterebbe a rischio operazioni e “warfighters”, e che non permetteranno che “nessuna azienda detti le condizioni”. Questa posizione indurisce la negoziazione, ma aumenta anche il costo reputazionale di rinunciare a un fornitore già integrato. Nelle acquisti di difesa, cambiare fornitore è raramente una transizione pulita, anche se Amodei ha sottolineato la disponibilità per una “transizione fluida” verso un altro.
L'angolo meno comentato è quello della governance industriale: se gli Stati Uniti etichettano un'azienda locale come “rischio di catena di fornitura” in un conflitto contrattuale, l'intero settore interiorizza che la non conformità è punita come minaccia. Ciò accelera la “disciplina” del mercato, ma potrebbe disincentivare chi costruisce barriere di sicurezza robuste per design.
Il fattore Difesa della Produzione e l’espansione del potere statale sui modelli
La copertura menziona anche che il Pentagono ha considerato di invocare il Defense Production Act (DPA) per forzare un accesso senza restrizioni, nonostante i dubbi legali sollevati da esperti di politiche sull’IA. Questa possibilità è importante anche se non viene mai eseguita. È un segnale che lo Stato è disposto a trattare modelli avanzati come risorse strategiche e a spingere strumenti di tempi di guerra verso l'economia digitale.
Dal punto di vista aziendale, il DPA cambia il calcolo del rischio. Se il governo può dichiarare un sistema “essenziale” e forzare condizioni, la strategia di “vendita al settore pubblico per stabilizzare i ricavi” non è più semplice. Il contratto assomiglia di più a un accordo con capacità di coercizione. E questo costringe i consigli di amministrazione a chiedersi cosa stanno realmente comprando: vendite o esposizione.
C’è una contraddizione che Amodei ha messo in evidenza e che è operativamente rilevante: mentre si minaccia di dichiarare Anthropic un rischio di catena di fornitura, si valuta di forzare l'accesso perché il modello sarebbe essenziale per la sicurezza nazionale. Questa tensione non è solo retorica; rivela uno Stato che desidera dipendenza senza dipendenza, cioè accesso e controllo senza accettare l'assimmetria che anche il fornitore ha potere.
L'uscita probabile non è una vittoria assoluta di una parte. Si tratta di un ridisegno contrattuale che crea una zona grigia: salvaguardie su carta, eccezioni sotto certi processi, audit interni e un linguaggio che preservi margini di manovra per il DoD. Il problema della zona grigia è che, in sistemi che scalano, ciò che non è tecnicamente garantito si erode nel tempo.
Ciò che rimane chiaro è il modello: l'IA nella difesa entra in una fase in cui l'attivo critico non è più il modello, ma il governo del suo uso. Chi controlla quell'asse controlla il valore.
La direzione inevitabile è governance tecnica, non solo clausole
Come futurista focalizzata sull’impatto, vedo questa disputa come un sintomo di maturità. L'IA ha smesso di essere un acquisto “innovativo” ed è diventata infrastruttura. In infrastruttura, la vera discussione è chi definisce i limiti, chi audita le eccezioni e chi si fa carico del costo quando un uso “legale” produce danno operativo, politico o sociale.
Il C-Level dovrebbe leggere questo caso come una lezione sugli acquisti di IA in settori regolati: i principi di sicurezza che non sono integrati nell'architettura e nei processi finiscono per essere negoziati come allegati contrattuali, e gli allegati si rompono sotto pressione. Se la sicurezza dipende dalla buona volontà, non scala.
È anche un promemoria di come la convergenza digitale eroda i monopoli decisionali. Né il governo può assumere il controllo totale su modelli costruiti nel settore privato, né le aziende possono pretendere che le politiche interne sostituiscano i quadri democratici. L'unica uscita stabile è progettare sistemi dove l'intelligenza aumentata preservi una supervisione umana verificabile e tracciabilità.
Questo mercato sta transitando dalla digitalizzazione verso la disruzione della governance: il valore si sposterà verso coloro che trasformeranno le salvaguardie in ingegneria auditabile e ridurranno il costo del conformarsi senza degradare le capacità. La tecnologia deve potenziare il giudizio umano e democratizzare le garanzie, non solo accelerare le operazioni.











