Sam Altman ha informato i dipendenti di OpenAI, in una riunione generale venerdì 27 febbraio 2026, che l’azienda stava negoziando un accordo con il Dipartimento della Difesa degli Stati Uniti per schierare i propri modelli e strumenti di intelligenza artificiale. La parte veramente importante non è il titolo, ma il dettaglio operativo: OpenAI cerca di mantenere il proprio "safety stack", ovvero controlli tecnici, politici e umani tra il modello e l'uso finale, e inoltre di evitare che il cliente forzi l'annullamento delle negazioni del modello per compiti specifici. Fortune ha riportato che il contratto non era ancora finalizzato o firmato, secondo una fonte presente alla riunione e un riepilogo rivisto dal media. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/)
La negoziazione arriva dopo una rottura pubblica tra il Pentagono e Anthropic. Secondo lo stesso rapporto, Anthropic si è rifiutata di rimuovere le salvaguardie nel suo modello Claude che restringevano la sorveglianza di massa domestica e le armi completamente autonome, di fronte alle pressioni per consentire l'uso "per tutti scopi legali". In parallelo, il presidente Donald Trump ha ordinato alle agenzie federali di smettere di utilizzare la tecnologia di Anthropic, con un periodo di uscita di sei mesi, e il segretario della Difesa, Pete Hegseth, ha annunciato che il Dipartimento designerebbe Anthropic come rischio per la catena di approvvigionamento per la sicurezza nazionale, ampliando l'impatto oltre il governo. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/)
Poche ore dopo, Altman ha pubblicato su X che OpenAI aveva raggiunto un accordo con il Dipartimento della Difesa per schierarsi nella sua rete classificata, sottolineando due linee: divieto di sorveglianza di massa domestica e responsabilità umana nell'uso della forza, incluse armi autonome. Il conflitto competitivo è evidente, ma la mia lettura è più fredda: questo episodio espone come, nell’IA avanzata, le salvaguardie non sono più un gesto etico, ma una clausola di controllo del prodotto che definisce chi cattura il margine, chi si assume il rischio reputazionale e chi rimane intrappolato nei costi di conformità.
Quando un cliente chiede di "togliere i freni", in realtà chiede controllo del margine
Nei servizi ad alto rischio — e la difesa lo è per definizione — il cliente non acquista solo capacità. Acquista anche responsabilità, e quando cerca di spostare i limiti d'uso, sta cercando di riconfigurare la distribuzione di tali responsabilità. Nel caso di Anthropic, il conflitto descritto da Fortune si è centrato sulla richiesta di rimuovere le salvaguardie relative alla sorveglianza domestica e alle armi autonome, mentre il Pentagono insisteva sulla disponibilità per "scopi legali". La conseguenza è stata doppia: una minaccia su un contratto fino a 200 milioni di dollari e, infine, un'escalation politica che ordinava l'uscita di Anthropic dalle agenzie federali e una designazione di rischio per la catena di approvvigionamento. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/)
Da un punto di vista finanziario, lo traduco così: se un cliente riesce a far disattivare i limiti del prodotto da parte del fornitore, il fornitore passa dal vendere uno strumento a subappaltare il rischio. E il rischio, prima o poi, si trasforma in costo. Costo legale, costo di compliance, costo di sicurezza interna, costo di talento, costo dei premi assicurativi e costo commerciale in altri segmenti. Non serve inventare cifre: basta capire la meccanica. Nell’IA, il costo variabile dominante è il calcolo. Se a ciò si aggiunge una coda di costi incerti per usi estremi o politicamente sensibili, il margine smette di essere un numero e diventa una scommessa.
Ecco la rilevanza del messaggio di Altman al personale: OpenAI negozia di mantenere un "safety stack" proprio e di evitare che il cliente imponga "overrides" alle negazioni del modello. È un modo per dire al compratore: il servizio viene fornito in base a condizioni tecniche che preservano il perimetro del prodotto. Questo protegge l'azienda, ma stabilizza anche l’economia del contratto, poiché riduce la probabilità che l'accordo si trasformi in requisiti ad hoc, eccezioni operative e escalation di supporto umano che erode il margine.
Difesa come cliente ancorato: flusso prevedibile in cambio di restrizioni rigorose
OpenAI arriva a questo tavolo in un contesto in cui il settore cerca di monetizzare modelli fondamentali che sono intensivi in capitale e calcolo. Quando il prodotto ha alti costi variabili, la tentazione tipica è quella di inseguire il volume. Ma nel governo e nella difesa, il volume non assomiglia al consumo di massa: somiglia a contratti con importi elevati, cicli di acquisto lenti e requisiti di sicurezza che trasformano parte del costo in fisso.
Il punto decisivo del briefing di Fortune è che Altman avrebbe specificato limiti di schieramento, incluso che l’uso si sarebbe svolto in ambienti cloud e non in sistemi “edge” come aeroplani o droni. Inoltre, l’accordo menzionato su X si concentrerebbe sullo schieramento all'interno della rete classificata. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/) Questo raggio d'azione è importante perché definisce la curva dei costi. Schierarsi in rete classificata non è banale, ma delimitare il perimetro riduce le combinazioni: meno integrazioni estreme, meno scenari di latenza critica, meno necessità di certificazioni associate a hardware operativo.
Da un punto di vista finanziario, un “cliente ancorato” nella difesa può svolgere due ruoli. Primo, fornire entrate ricorrenti di alta qualità, tipicamente meno sensibili al ciclo economico rispetto a un segmento di consumo. Secondo, agire come validatore per vendite B2B regolamentate. Ma il prezzo nascosto è il rischio di rimanere catturati da requisiti che espondono il costo fisso: squadre dedicate, audit, risposta a incidenti, e governance contrattuale rigida.
Ecco perché è fondamentale che OpenAI cerchi di mantenere il proprio "safety stack". È il suo modo di limitare il "scope creep" e proteggere la propria struttura di costi. Un contratto grande che cresce in complessità più rapidamente delle entrate è un contratto che sembra grande mentre ti rende fragile.
Il vuoto lasciato da Anthropic non è solo commerciale: è un riordino del potere
Fino a questo episodio, Anthropic era, secondo Fortune, l'unico grande fornitore commerciale con modelli approvati per l'uso del Pentagono attraverso un'alleanza con Palantir. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/) Questo le dava un vantaggio asimmetrico: essere “l'autorizzato” in un acquirente con budget enormi.
L'intervento politico cambia le regole del gioco. L'ordinanza presidenziale di interrompere l'uso di Anthropic e la minaccia di designazione come rischio di catena di approvvigionamento generano un effetto secondario: aumentano il costo opportunità di qualsiasi attore che si associ commercialmente a Anthropic in ambiti legati alla difesa. Non ho bisogno di speculare sull'esito legale; basta osservare l'incentivo: l'acquirente pubblico cerca di disciplinare il fornitore privato.
In questo contesto, OpenAI appare come il sostituto naturale, ma con una differenza strategica: entra nel segmento con un messaggio esplicito di “rispetto reciproco” per i principi di sicurezza dell'IA, comprese le interdizioni sulla sorveglianza di massa domestica e la responsabilità umana nell'uso della forza. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/) Tradotto in termini di negoziazione, questo significa costruire un contratto in cui l'azienda conserva parte del controllo del prodotto e il cliente mantiene il controllo della missione, ma senza trasformare l’IA in un sistema senza restrizioni.
Questo equilibrio ha una lettura competitiva: se il governo accetta che OpenAI mantenga il proprio strato di sicurezza, allora la “capacità” smette di essere l'unico criterio. Inizia a importare chi può offrire capacità con un quadro di controllo che il compratore possa tollerare politicamente. Nei mercati regolamentati, quella tolleranza definisce la dimensione reale del mercato accessibile.
La matematica semplice dietro lo "safety stack": proteggere il margine proteggendo il perimetro
Un leader finanziario non dovrebbe fermarsi al dibattito astratto. La domanda operativa è quale variabile si sta cercando di controllare.
In un business di modelli di IA, il costo marginale per uso si muove con il calcolo, e il costo di qualità si muove con sicurezza, monitoraggio e supporto. Se il cliente può esigere eccezioni e annullare negazioni, si aprono due effetti:
1) Aumento del costo di supporto: più incidenti, maggiori escalation umane, più revisioni delle politiche e più audit interni.
2) Degradazione delle vendite future: un singolo episodio può chiudere porte in settori aziendali che pagano bene e non vogliono essere associati a usi polemici.
Da questa logica, mantenere lo "safety stack" è un modo per convertire una parte del rischio in una regola del prodotto. Non è altruismo; è controllo della variabilità del costo. E controllare la variabilità è, in sostanza, difendere il margine.
Il dato dei 200 milioni di dollari del contratto in discussione con Anthropic fornisce anche una scala. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/) Un accordo di questo tipo può finanziare infrastrutture, sicurezza e squadre dedicate. Ma è un buon affare solo se non si trasforma in un pozzo di costi crescenti a causa di cambi di ambito. Il rischio dei contratti governativi non è che paghino poco; è che paghino bene mentre ti costringono a operare come se la tua struttura fosse quella di un appaltatore di difesa tradizionale.
Il movimento di OpenAI suggerisce un insegnamento: negoziare fin dall'inizio il perimetro di schieramento, il controllo delle salvaguardie e la non obbligazione di annullare negazioni. Quel “no” scritto nel contratto è l'equivalente finanziario di fissare limiti al costo variabile e al costo reputazionale.
La direzione è chiara: vincere il contratto senza vendere il volante del prodotto
Questo episodio lancia un segnale utile per qualsiasi CEO o CFO che venda tecnologia critica a grandi acquirenti istituzionali. La negoziazione non si definisce solo in base al prezzo e al volume, ma su chi controlla il sistema in operazione.
Anthropic, secondo il rapporto, ha difeso linee rosse e ora affronta un processo di uscita federale e una possibile designazione di rischio di catena di approvvigionamento, che ha annunciato che contesterà in tribunale. (https://fortune.com/2026/02/27/openai-in-talks-with-pentagon-after-anthropic-blowup/) OpenAI, da parte sua, si posiziona per catturare lo spazio vacante, ma cercando di mantenere controlli propri e limitare lo schieramento a contesti in cui la complessità operativa sia gestibile.
Finanziariamente, la lezione è concreta. Un grande contratto rafforza l'azienda solo se viene con limiti che preservano il margine e riducono la varianza del costo. L'accordo ideale non è quello che genera più titoli, ma quello che definisce il perimetro d'uso, evita eccezioni e trasforma il rischio in regole operative. Alla fine, l'azienda che mantiene il controllo è quella che può finanziare le proprie operazioni con entrate reali e ripetibili, perché il denaro del cliente rimane l'unica validazione che assicura la sopravvivenza e il controllo dell’azienda.










