Il venerdì 27 febbraio 2026, OpenAI ha annunciato un accordo che consente al Dipartimento della Difesa degli Stati Uniti — rinominato dall'amministrazione Trump come Dipartimento della Guerra — di schierare i suoi modelli di intelligenza artificiale su reti classificate. L'annuncio è arrivato nelle ore successive alla designazione del segretario alla Difesa, Pete Hegseth, di Anthropic come rischio per la catena di approvvigionamento della sicurezza nazionale, un'etichetta che di fatto blocca i contraenti militari dall'intrattenere relazioni commerciali con quella società (con un periodo di transizione di sei mesi). La sequenza degli eventi è più importante del titolo: non si è trattato solo di una gara vinta, ma di una riconfigurazione del panorama.
In questi mercati, la domanda non si negozia dalla comodità di un manifesto etico. Si negozia dal linguaggio dell'acquirente: controllo operativo, copertura legale e continuità della missione. Anthropic, stando a quanto riportato, cercava divieti contrattuali espliciti per due usi specifici: sorveglianza di massa domestica e armi completamente autonome senza supervisione umana. Il Pentagono ha rifiutato questa struttura contrattuale e ha richiesto “accesso completo e senza restrizioni per qualsiasi scopo LÍCITO”. OpenAI ha accettato il framework dell'acquirente, ma ha promesso un'altra cosa: salvaguardie tecniche e un “safety stack” dove il governo non avrebbe costretto il modello ad obbedire se quest'ultimo rifiutava un compito.
Vista da una prospettiva strategica di prodotto, la svolta è chiara: l'etica ha smesso di essere un paragrafo legale ed è diventata una specifica di implementazione. E questa differenza definisce chi può entrare nella rete classificata.
Il segnale reale dell'accordo non è il contratto, ma lo standard di acquisto
Sam Altman ha comunicato che l'accordo consente l'uso dei modelli per “qualsiasi scopo lecito”, incorporando salvaguardie contro la sorveglianza di massa dei cittadini americani e assicurando la responsabilità umana sull'uso della forza letale, anche in sistemi di armi autonome. Il dettaglio chiave non è che esistano dei limiti, ma dove risiedono questi limiti.
Anthropic ha cercato di ancorare i limiti nel contratto. OpenAI li ancorano in tre strati: (1) leggi esistenti che già proibiscono alcuni usi, (2) politiche militari che richiedono un giudizio umano per l'uso della forza letale, e (3) controlli tecnici all'interno del dispiegamento. Per un acquirente come il Dipartimento della Guerra, questa architettura riduce la frizione: mantiene il linguaggio di “uso lecito” che desiderano e trasferisce il rispetto a una combinazione di governance interna e tecnologia.
Non si tratta di una discussione filosofica; è procurement. Un contratto con divieti espliciti dà all'azienda fornitrice un meccanismo formale di blocco. Un “safety stack”, invece, si presenta come una capacità tecnica e un'operazione congiunta, senza “veto” contrattuale. Nelle comunicazioni si riporta che il Pentagono ha accusato Anthropic di cercare un “potere di veto” su decisioni operative. Questa frase è un messaggio per l'intera industria: l'acquirente non acquista solo modelli, acquista subordinazione operativa.
La conseguenza è che il “standard” non sarà più chi produce il miglior modello generalista, ma chi può confezionarlo in condizioni accettabili per un ambiente classificato senza trasformare ogni eccezione in una crisi legale. In pratica, OpenAI sta offrendo un'interfaccia di governance più digeribile per il cliente.
Il blocco di Anthropic è una mossa per la catena di approvvigionamento, non una discussione di valori
La designazione di “rischio per la catena di approvvigionamento” nei confronti di Anthropic è descritta come una mossa senza precedenti. E per questo stesso motivo è utile leggerla come ciò che è: uno strumento di potere per disciplinare un mercato che si stava rivelando difficile da gestire.
In un ambiente in cui i modelli fondazionali stanno diventando infrastrutture, lo Stato tratta i fornitori come tratta i semiconduttori, le telecomunicazioni o la cybersicurezza: continuità, controllo, auditabilità, sostituzione. Etichettare un fornitore come rischio riorganizza immediatamente gli incentivi, perché obbliga contraenti e partner a schierarsi, anche se esiste un periodo di transizione.
L'effetto immediato è economico, anche se non abbiamo cifre pubbliche relative all'accordo di OpenAI. Abbiamo invece una dimensione del colpo: nelle comunicazioni si menzionano negoziazioni di Anthropic per fino a 200 milioni di dollari. Anche se quella cifra non rappresenta la maggior parte dell'attività di Anthropic, il vero impatto non è perdere un contratto specifico. È restare fuori dall'ecosistema di fornitori che vivono per servire il cliente militare, dove la compatibilità commerciale è binaria.
Per OpenAI, il vantaggio non è solo “vincere”. È diventare il fornitore la cui presenza all'interno delle reti classificate normalizza un modello di dispiegamento. Una volta che il cliente investe in integrazione, personale ingegneristico in loco e flussi di sicurezza, il costo di cambiare fornitore aumenta. Le comunicazioni affermano che OpenAI schiererà ingegneri al Pentagono e abiliterà un'architettura di salvaguardie. Questo suona meno come una “vendita di API” e più come un servizio critico integrato.
Il messaggio per qualsiasi startup che aspiri a vendere allo Stato è scomodo: il rischio non è più solo tecnico o di compliance; è di “accettabilità politica” come fornitore. Questa accettabilità può essere definita in 24 ore.
OpenAI ha condotto un esperimento ad alto rischio: trasformare la sicurezza in una caratteristica operativa
Dove la maggior parte delle analisi si soffermerà sul se OpenAI “ha ceduto” o se Anthropic “ha resistito”, io guardo ad un altro aspetto: OpenAI ha trasformato una discussione di restrizioni in un pacchetto di consegna. Questo è prodotto.
Altman ha affermato che costruiranno salvaguardie tecniche, che permetteranno al governo uno “safety stack” e che i modelli che si rifiuteranno di eseguire compiti non saranno costretti a ottemperare. Se questo viene implementato come descritto, implica che OpenAI non vende solo un modello; vende un modo di operare il modello sotto pressione istituzionale.
Questo è esattamente ciò di cui un acquirente della difesa ha bisogno per giustificare internamente l'acquisto: “non stiamo comprando una scatola nera; stiamo comprando un sistema con freni”. E lo fa senza doversi legare a clausole che potrebbero essere interpretate come limitazioni al comando.
La parte più pragmatica è che OpenAI sembra accettare che il contesto normativo e le politiche siano già esistenti per coprire gran parte delle preoccupazioni, e che il resto può essere mitigato con ingegneria e processi. Anthropic ha cercato di chiudere il rischio per contratto; OpenAI cerca di strumentarlo.
Ora, questo approccio ha un costo. Quando dici “qualsiasi scopo lecito”, ampli lo spazio degli usi potenziali e, di conseguenza, lo spazio degli incidenti. La promessa di salvaguardie tecniche diventa misurabile, e quindi verificabile dal cliente. Nelle reti classificate, i fallimenti non vengono discussi in un post pubblico: vengono pagati con perdita di fiducia e espulsione silenziosa.
È interessante notare che OpenAI ha persino chiesto che il Dipartimento della Guerra offrisse “questi stessi termini a tutte le aziende di IA”. Questa frase funge da copertura competitiva: se lo standard diventa universale, OpenAI riduce il rischio di essere vista come un'eccezione privilegiata e trasforma il suo approccio in una norma di mercato.
Il mercato della difesa sta definendo il linguaggio commerciale dell'IA avanzata
Questo episodio non avviene nel vuoto. Le comunicazioni menzionano che Google e xAI hanno già contratti per usi “lecito”, e che xAI ha ricevuto approvazione per ambienti classificati nella stessa settimana. In altre parole, l'acquirente sta costruendo un portfolio di fornitori, ma l'evento con Anthropic mostra che quel portfolio ha condizioni di permanenza.
Quando un cliente ha potere d'acquisto e capacità di esclusione, il “linguaggio contrattuale” si standardizza dall'alto. Qui il linguaggio è “uso lecito”. E attorno a questo linguaggio si costruisce un mercato di componenti: integrazione, controlli, audit, dispiegamento in reti chiuse, personale incorporato, gestione dei rifiuti del modello, tracciabilità delle richieste, registrazione delle decisioni umane.
Le startup che considerano questo come un dibattito di reputazione stanno perdendo tempo. Ciò che si sta formando è una categoria di prodotto: IA per ambienti classificati con garanzie operative. Non è la stessa vendita del software aziendale, perché l'acquirente non acquista comodità; acquista controllo, continuità e responsabilità.
Anthropic ha dichiarato che impugnerà la designazione in tribunale e che non aveva ricevuto comunicazioni dirette. Se questa disputa si protrae, l'effetto di mercato è già in atto: partner e contraenti stanno aggiustando la loro esposizione oggi, non quando ci sarà una sentenza. Il periodo di transizione di sei mesi è sufficiente perché i team di approvvigionamento riscrivano roadmap e sostituiscano dipendenze.
Qui si evidenzia il modello che molte aziende tecnologiche sottovalutano: in settori regolati o sovrani, il “prodotto” include la relazione con lo Stato come attore politico. E la politica non rispetta i cicli del prodotto.
La lezione per i dirigenti: i limiti che non si strumenti diventano irrilevanti
OpenAI ha vinto perché ha tradotto un conflitto di restrizioni in una soluzione di consegna che il cliente può operare all'interno delle proprie regole. Anthropic ha perso trazione perché ha cercato di risolvere lo stesso conflitto con una struttura contrattuale che l'acquirente ha interpretato come una perdita di controllo. La differenza non risiede nelle migliori intenzioni, ma in chi ha progettato un sistema che si integra con la realtà del cliente più esigente.
Per i leader aziendali, questo caso offre un principio applicabile anche al di fuori della difesa: quando il cliente richiede ampiezza e velocità, l'unico modo per mantenere limiti senza compromettere la vendita è convertirli in meccanismi verificabili all'interno del prodotto e dell'operazione. I valori che non possono essere eseguiti finiscono per essere solo abbellimenti corporativi, e i piani perfetti muoiono il primo giorno che si scontrano con un acquirente reale.
La vera crescita aziendale si verifica solo quando si abbandona l'illusione del piano perfetto e si abbraccia la validazione costante con il cliente reale.











