Anthropic ha detto no al Pentagono e ora affronta le conseguenze
Il 4 marzo 2026, il Dipartimento della Difesa degli Stati Uniti ha designato Anthropic come un "rischio per la catena di approvvigionamento della sicurezza nazionale". Il giorno successivo, Dario Amodei ha confermato che l'azienda avrebbe portato il caso in tribunale. Il 10 marzo, la causa era stata depositata presso il Tribunale del Distretto Settentrionale della California, Microsoft aveva presentato un sussidio e oltre mille dipendenti di OpenAI e Google avevano firmato una dichiarazione congiunta di rifiuto delle sanzioni.
La rapidità dell’escalation rivela qualcosa che i comunicati stampa non dicono: non si tratta di una disputa su clausole contrattuali. È il primo vero confronto aperto tra Stato e settore privato dell'IA su chi ha l'autorità finale per decidere cosa può fare un modello di intelligenza artificiale quando l'ordine proviene da un uniforme militare.
Il contratto che ha acceso la miccia
Nel luglio 2025, Anthropic ha firmato un contratto di 200 milioni di dollari con il Dipartimento della Difesa. L'accordo permetteva di utilizzare Claude in operazioni classificate, incluso il monitoraggio degli immigrati per il Servizio di Immigrazione e Controllo delle Dogane e operazioni di cattura di obiettivi di alto valore. Ma il contratto aveva due restrizioni esplicite: Claude non poteva prendere decisioni letali in modo autonomo senza approvazione umana, e non poteva eseguire sorveglianza di massa indiscriminata su cittadini statunitensi.
Queste restrizioni non erano clausole minori né una concessione dell'ultimo secondo. Erano il cuore della proposta di valore che Anthropic ha costruito sin dalla sua fondazione nel 2021, quando Dario Amodei e Daniela Amodei sono usciti da OpenAI proprio per puntare su uno sviluppo dell'IA che privilegiasse la sicurezza rispetto alla velocità commerciale. Il Pentagono lo sapeva quando ha firmato. L'ha accettato.
Ciò che è cambiato è stata l'amministrazione. Nel gennaio 2026, il segretario alla Difesa Pete Hegseth ha emesso un memorandum sotto la strategia chiamata "AI-First Combat Power", che richiedeva che tutti i contratti di IA del Dipartimento della Difesa includessero un linguaggio di "qualsiasi uso legale" entro 180 giorni. Il memorandum ha diretamente colliso con quanto Anthropic aveva concordato. Il 24 febbraio, Hegseth ha incontrato personalmente Amodei e gli ha avvertito che se non avesse rimosso le restrizioni prima del venerdì successivo, avrebbe invocato il Titolo I della Legge di Produzione della Difesa per forzare il rispetto o richiedere un nuovo addestramento del modello.
Amodei ha risposto con tre parole che nel mondo aziendale possono essere molto costose: "Non possiamo conformarci".
Ciò che la Legge di Produzione della Difesa non può acquistare
La minaccia di invocare il Titolo I della Legge di Produzione della Difesa merita un'analisi specifica perché rivela la fragilità dell'argomento governativo. Quella legge è stata progettata per garantire l'accesso prioritario dello Stato a risorse produttive in tempi di crisi: acciaio, semiconduttori, attrezzature mediche. La sua applicazione storica è stata relativa a beni fisici con catene di produzione tracciabili.
Applicarla ai principi di design di un modello linguistico è un salto legale di proporzioni considerevoli. Come segnala l'analisi di Lawfare citata nella copertura del caso, il Titolo I garantisce accesso prioritario, ma complicherebbe enormemente la richiesta giuridica di eliminare le salvaguardie incorporate nel modello o il suo riaddestramento. L'analogia con un'acciaieria non regge. Un governo può ordinare a un impianto di produrre acciaio per siluri anziché travi di costruzione. Ordinare a un'azienda di modificare i valori etici codificati in un modello di IA è un territorio legale senza precedenti chiari.
Questa ambiguità è, paradossalmente, lo strumento più efficace del Dipartimento della Difesa. Come avverte lo stesso analisi di Lawfare: la minaccia di invocare una legge le cui implicazioni nessuno comprende appieno può essere sufficiente per ottenere la capitolazione senza necessità di utilizzarla. L'incertezza genera pressione. E la pressione, in aziende con investitori e contratti a rischio, funziona spesso meglio dei decreti.
Anthropic ha scelto l'unico percorso che elimina quell'ambiguità: i tribunali.
La mappa delle lealtà e ciò che rivela sul settore
Ciò che è più significante in questo episodio non è tanto la causa, quanto chi si è schierato con ciascuna parte e con quale rapidità.
Microsoft ha presentato un sussidio lo stesso giorno in cui Anthropic ha depositato la causa, sostenendo che l'IA non dovrebbe essere utilizzata per la sorveglianza domestica su larga scala né per avviare guerre senza controllo umano. Jeff Dean e più di quaranta figure dell'industria hanno firmato una dichiarazione avvertendo che sanzionare un'azienda di IA statunitense potrebbe danneggiare gravemente la competitività scientifica e industriale del paese. L'Information Technology Industry Council, che rappresenta Nvidia, Amazon, Apple e OpenAI, ha avvertito che le sanzioni potrebbero indebolire l'accesso del governo stesso ai migliori prodotti e servizi.
Dall'altro lato, aziende come xAI di Elon Musk hanno accettato i termini del Pentagono per lavori riservati, consolidando una frattura visibile nel settore tra coloro che calcolano che la postura etica ha un costo di opportunità inaccettabile e coloro che ritengono che cedere sia l'inizio di una pendenza senza ritorno.
Questa frattura è importante perché espone la logica sottostante di ogni modello di business. Un'azienda che dipende criticamente da contratti governativi per sostenere la propria crescita ha molto poco margine per mantenere posizioni che irritano il cliente più grande del mercato. Un'azienda che ha costruito la propria differenziazione proprio sulle restrizioni che il governo vuole eliminare ha il problema inverso: cedere distruggerebbe l'attivo che la rende preziosa.
Anthropic non sta difendendo principi in astratto. Sta difendendo l'unico vantaggio competitivo che la separa dai suoi concorrenti in un mercato dove i modelli tecnici convergono ogni trimestre.
Il precedente che nessuno vuole nominare
Se il Dipartimento della Difesa vince questo caso, l'effetto sull'industria non sarà immediato né drammatico. Sarà graduale e sistemico. Ogni azienda che negozia un contratto federale di IA saprà che qualsiasi restrizione d'uso può essere dichiarata un rischio per la sicurezza nazionale in un momento di tensione politica. Questa certezza cambia gli incentivi al design prima che venga firmato qualsiasi accordo.
L'Information Technology Industry Council lo ha articolato con precisione tecnica: le sanzioni potrebbero limitare l'accesso del governo ai migliori prodotti disponibili. La paradosso è che lo Stato, premendo per eliminare restrizioni, potrebbe finir per ottenere accesso a modelli più obbedienti ma meno capaci, sviluppati da aziende che hanno imparato a costruire senza limiti perché i limiti si rivelano politicamente scomodi.
Il tribunale del Distretto Settentrionale della California dovrà risolvere una domanda che il Congresso non ha ancora risposto: se un'azienda privata può contrattualmente stabilire restrizioni d'uso sulla propria tecnologia quando quell'uso coinvolge decisioni letali, o se la dottrina della sicurezza nazionale può disciogliere qualsiasi accordo privato quando lo considera scomodo.
Esperti di diritto amministrativo citati nella copertura del caso suggeriscono che la soluzione strutturale non sia nei tribunali ma nel Congresso, che finora non ha stabilito un quadro legislativo specifico per l'uso militare dei sistemi di IA. Finché questo vuoto persiste, il Pentagono riempie lo spazio con memorandum, e le aziende rispondono con cause.
Ciò che Anthropic ha messo sul tavolo il 10 marzo 2026 non è solo il suo contratto di 200 milioni di dollari. È la domanda se un'organizzazione può sostenere un fine fondamentale quando il cliente più potente del mondo decide che quel fine è un ostacolo. La cultura di ogni organizzazione è il risultato naturale di perseguire quel fine con coerenza, oppure, il sintomo inevitabile di tutte le volte che la leadership ha preferito il contratto alla convinzione.













