La sentenza che ha diviso la giustizia americana in due
L'8 aprile 2026, la Corte d'Appello del Distretto di Columbia ha respinto la richiesta d'emergenza di Anthropic per sospendere temporaneamente la sua designazione come rischio nella catena di approvvigionamento del Dipartimento della Difesa. La decisione è stata breve ma incisiva: la corte ha riconosciuto che Anthropic subirebbe "un certo grado di danno irreparabile", ma ha stabilito che tale danno era "principalmente finanziario" e che il bilanciamento dei diritti favoriva il governo durante un conflitto militare attivo.
Ciò che rende questa storia particolarmente complessa è che esiste una sentenza parallela che va in direzione opposta. Un giudice federale a San Francisco aveva precedentemente concesso un’ingiunzione che costringeva l’amministrazione Trump a rimuovere le etichette di rischio, permettendo ad agenzie federali diverse dal Pentagono di continuare a utilizzare Claude. Due tribunali, due interpretazioni opposte dello stesso conflitto. Anthropic può continuare a vendere il suo modello a praticamente tutto il governo federale, ma ha la porta del Pentagono sbarrata mentre il contenzioso avanza verso un’udienza programmata per il 19 maggio 2026.
La sorgente del conflitto non è stata una disputa tecnica né un problema di licenze. Secondo le informazioni disponibili, il Dipartimento della Difesa ha imposto ad Anthropic di rimuovere alcune misure di sicurezza da Claude come condizione per un contratto. Anthropic ha rifiutato. Il Pentagono ha risposto con una designazione formale di rischio nella catena di approvvigionamento secondo la legislazione federale, che praticamente cancella la compagnia dal panorama degli appalti per la difesa.
Quando il prodotto che ti fa diverso ti chiude una porta
Qui risiede il nodo strategico che le analisi convenzionali su questo caso stanno trascurando.
Anthropic ha fondato la propria identità commerciale su una premessa specifica: costruire sistemi di intelligenza artificiale con controlli di sicurezza integrati. Questa è la ragione per cui Claude esiste come prodotto distinto, per cui la compagnia attira talenti diversi rispetto a OpenAI o Google DeepMind, e per cui alcuni clienti aziendali la preferiscono. Le misure di sicurezza non sono un accessorio. Sono l'architettura del prodotto.
Il problema è che il Dipartimento della Difesa non ha contratto Anthropic per acquistare la sua filosofia su un'IA sicura. Ha contratto, o tentato di contrattare, una specifica capacità operativa per contesti militari. Da questa prospettiva, le misure di sicurezza che Anthropic considera il nucleo della sua proposta di valore sono, per il Pentagono, un ostacolo funzionale. Il "lavoro" che il cliente voleva che Claude eseguisse richiedeva precisamente l'assenza di alcuni di quei controlli.
Questo pone Anthropic in una posizione che poche startup affrontano con tanta chiarezza: il suo differenziale centrale è incompatibile con i requisiti del suo cliente più grande potenziale. Non è un problema di prezzo, di prestazioni tecniche o di reputazione aziendale. È un'incompatibilità di design che nessuna negoziazione commerciale può risolvere senza che una delle due parti abbandoni la propria posizione fondativa.
Le conseguenze pratiche non sono trascurabili. I contrattisti della difesa ora operano con due versioni di politica: possono utilizzare Claude per progetti non correlati al Dipartimento della Difesa, ma devono escluderlo da qualsiasi lavoro collegato al Pentagono. Questo crea silos operativi che complicano la gestione degli strumenti, aumentano i costi di formazione interna e generano attriti in organizzazioni che lavorano simultaneamente su contratti civili e militari.
La geometria del danno finanziario e ciò che la corte ha misurato male
La corte del Circuito di D.C. ha scartato il danno ad Anthropic definendolo "principalmente finanziario". Tale caratterizzazione merita un'analisi più attenta.
Quando un tribunale federale designa un'azienda come rischio nella catena di approvvigionamento della difesa, l'impatto non si limita ai contratti persi con il Pentagono. L'etichetta inquina la percezione del rischio in settori adiacenti: agenzie di intelligence, contrattisti con contratti duali, partner internazionali del governo degli Stati Uniti e, potenzialmente, imprese del settore privato che danno priorità a non avere fornitori con contenzioni attive contro il governo federale. Il danno reputazionale di tale designazione opera in modo diverso dal danno diretto derivante da contratti annullati, ed è considerevolmente più difficile da quantificare o invertire con una dichiarazione stampa.
Anthropic ha ottenuto una vittoria parziale con l'ingiunzione di San Francisco, che ha costretto il governo a rimuovere le etichette di rischio per agenzie non correlate alla difesa. Questo contiene il contagio. Ma la corte di D.C. ha mantenuto attiva la designazione del Pentagono, il che significa che il rischio reputazionale persiste nel settore difensivo per mesi ulteriori, mentre i concorrenti negoziano contratti che Anthropic non può toccare.
La posizione di OpenAI e Google in questo scenario è oggettivamente più comoda. Senza la restrizione delle salvaguardie integrate che Anthropic si rifiuta di disattivare, entrambe le compagnie hanno più flessibilità per adattare i loro modelli ai requisiti operativi del Dipartimento della Difesa. L'esclusione di Anthropic non è solo una perdita di guadagni a breve termine; è una finestra di sei-dodici mesi in cui i suoi concorrenti possono consolidare relazioni contrattuali con il Pentagono che saranno difficili da spostare una volta concluso il contenzioso, indipendentemente dall'esito giudiziario.
Ciò che questo caso dice a qualsiasi azienda tecnologica che lavora con i governi
Il modello che emerge qui non è esclusivo dell'intelligenza artificiale né di Anthropic. È la versione 2026 di una tensione che abbiamo già visto con aziende di crittografia negli anni novanta, con produttori di droni nella scorsa decade e con piattaforme di comunicazione in conflitti recenti: i governi, particolarmente in contesti di sicurezza nazionale, non acquistano tecnologia per adattarsi ad essa. Comprano tecnologia aspettandosi che questa si adatti alle loro dottrine operative.
La strategia di Anthropic di mantenere le sue salvaguardie è coerente con la sua identità e, da una prospettiva a lungo termine, può essere quella giusta. Cedere su quel punto avrebbe eroso la credibilità che ha costruito con clienti aziendali che valorizzano precisamente quei controlli. Ma tale decisione ha un costo che ora il mercato può misurare con precisione: almeno sei mesi di esclusione dal maggior acquirente istituzionale di tecnologia del mondo, con un’udienza a maggio che determinerà se tale esclusione si estenderà indefinitamente.
Il successo a lungo termine di Anthropic nel settore pubblico dipenderà dal dimostrare che esiste un segmento del governo federale disposto a contrattare intelligenza artificiale secondo le condizioni che la compagnia impone, e se tale segmento è sufficientemente grande da sostenere il suo modello di business senza il Pentagono. L’ingiunzione di San Francisco suggerisce che quel segmento esiste. Ciò che la decisione di D.C. conferma è che il segmento della difesa, il più capitalizzato di tutti, non ne fa parte alle condizioni attuali.
Il lavoro che il Pentagono stava cercando di contrattare non era un modello di linguaggio avanzato. Era una capacità operativa senza restrizioni, e Anthropic si è rifiutata di venderla. Quel rifiuto è stato una decisione di prodotto travestita da contenzioso.










