OpenAI e il Pentagono: il business non è nel modello, ma nel dispiegamento

OpenAI e il Pentagono: il business non è nel modello, ma nel dispiegamento

Il contratto di OpenAI per portare i suoi modelli in ambienti classificati riapre la discussione sulla sorveglianza di massa, ma il punto cruciale è operativo: chi controlla l'architettura, la sicurezza e il "kill switch" del prodotto.

Francisco TorresFrancisco Torres4 marzo 20266 min
Condividi

OpenAI e il Pentagono: il business non è nel modello, ma nel dispiegamento

Il 28 febbraio 2026, Sam Altman ha annunciato che OpenAI aveva raggiunto un accordo con il Dipartimento della Difesa degli Stati Uniti per dispiegare i suoi modelli in una rete classificata. Parallelamente, le trattative tra Anthropic e il governo si sono interrotte nello stesso giorno e l'amministrazione Trump ha ordinato alle agenzie federali di cessare l'uso della sua tecnologia dopo un periodo di transizione di sei mesi; il Segretario della Difesa, Pete Hegseth, ha persino qualificato Anthropic come un “rischio per la catena di approvvigionamento”. Il giorno dopo, OpenAI ha pubblicato un post dettagliando il suo approccio e difendendo il fatto che il contratto include barriere esplicite contro tre usi: sorveglianza di massa domestica, armi autonome e decisioni automatizzate ad alto impatto.

Una lettura superficiale è politica: un'azienda si avvicina al potere e l'altra si allontana. La lettura utile per un CEO, un CFO o un operatore di prodotto è più fredda: questa è una disputa per il controllo del dispiegamento e, per estensione, su chi cattura il valore e chi si assume il rischio nella fase che conta, quella che avviene dopo la demo.

La controversia sulla sorveglianza non è un accessorio comunicativo. È il test di stress di qualcosa di più grande: il mercato dell'IA sta smettendo di essere una corsa ai benchmark e inizia a essere una corsa di architettura, conformità e operazione in ambienti avversi.

Un contratto "con barriere" vale solo quanto vale la sua esecuzione

OpenAI sostiene che l'accordo incorpora "più barriere rispetto a qualsiasi accordo precedente" per dispiegamenti classificati e che l'uso per sorveglianza di massa domestica rimane escluso. L'azienda afferma anche che il contratto fa riferimento a standard legali e politiche "così come esistono oggi", con l'obiettivo che l'uso rimanga allineato a quegli standard anche se cambiano in futuro. Nella sua narrativa, il framework non dipende da una frase in un documento: si basa su leggi vigenti, protezioni contrattuali e un design di dispiegamento.

Il problema pratico è che la parola "barriera" si degrada rapidamente quando passa da un post aziendale a una catena di decisioni reali: quali dati sono connessi, con quali permessi, quali tracciamenti sono richiesti, quali registrazioni sono conservate, chi effettua verifiche, cosa si considera "domestico" in un mondo di comunicazioni e raccolta trasfrontaliera. Nella discussione pubblica, Techdirt ha criticato che il testo permetterebbe schemi di raccolta sotto quadri come l'Executive Order 12333, descrivendola come una via attraverso la quale vengono catturate comunicazioni al di fuori degli Stati Uniti, anche se coinvolgono dati di cittadini statunitensi.

Dalla mia prospettiva commerciale, questa polemica ha un'implicazione operativa: i limiti di utilizzo non si sostengono per intenzione, ma si sostengono tramite meccanismi che sopravvivono al cambiamento di incentivi. In un ambiente classificato, l'incentivo dominante è la missione, la velocità e la riduzione della frizione. Se i controlli non sono verificabili, se non generano prove utilizzabili e se non hanno conseguenze tecniche immediate, finiscono per essere solo letteratura.

Ecco perché è più importante il "come" che il "cosa": OpenAI enfatizza il dispiegamento in cloud tramite API, personale autorizzato "in loop" e "completa discrezionalità" sulla sua pila di sicurezza. Questi elementi puntano a un modello di controllo continuo. Ma pongono anche una domanda esecutiva diversa, priva di moralismo: chi possiede la leva operativa quando cresce la pressione per i risultati?

L'architettura è il prodotto: cloud, API e controllo della superficie

Katrina Mulligan, responsabile delle alleanze di sicurezza nazionale in OpenAI, ha sostenuto che "l'architettura di dispiegamento conta più del linguaggio contrattuale". In particolare, ha argomentato che limitare l'implementazione a una cloud API riduce la possibilità di integrare il modello direttamente in armi, sensori o altri equipaggiamenti operativi.

Questa frase è il nucleo strategico dell'accordo. Nell'IA, il modello si commoditizza; il dispiegamento diventa la trincea. Se l'inferenza avviene nel cloud del fornitore, quest'ultimo trattiene tre asset critici:

1) Controllo degli aggiornamenti: il laboratorio decide quando e come cambia il comportamento del sistema.

2) Osservabilità: capacità di strumentare log, allerta, rilevamento di abusi e tracciabilità di prompt e outputs sotto politiche specifiche.

3) Capacità di interruzione: uno "spegnimento" realistico in caso di incidenti, sia per degrado, abuso o disallineamento.

In un ambiente militare, inoltre, il dispiegamento al bordo ha punti di attrazione evidenti: latenza, resilienza alla disconnessione, autonomia locale. Se il contratto spinge verso il cloud, il governo guadagna capacità funzionale ma cede parte del controllo operativo. E questo è uno scambio deliberato, non un dettaglio tecnico.

Qui appare la tensione che i media coprono poco: l'acquirente desidera sovranità operativa, il venditore desidera governanza del rischio. Il cloud è il punto medio che consente di vendere senza "fornire il motore" completo. OpenAI, insistendo su un modello solo cloud, sembra volere due cose contemporaneamente: entrate e una posizione difensiva rispetto a usi indesiderati.

Per ogni azienda che vende tecnologia critica a governi o industrie regolamentate, l'insegnamento è chiaro: il contratto è il framework; l'architettura è la garanzia. Ciò che definisce il profilo di rischio e il costo di conformità non è il PDF, ma il diagramma.

L'incentivo nascosto: entrate reali, dipendenza e costi di supporto

Non abbiamo cifre specifiche sul contratto nel materiale disponibile, quindi non è possibile effettuare un audit quantitativo. Ma il vettore economico è deducibile: un dispiegamento in ambienti classificati raramente è "self-service". Richiede integrazione, hardening, controlli, personale abilitato, processi, documentazione, supporto e, soprattutto, capacità di risposta. OpenAI afferma che ci sarà "personale autorizzato nel loop", inclusi ingegneri sul campo e personale di sicurezza e allineamento.

Questo ha un costo diretto. Negli affari software tradizionali, il margine viene protetto standardizzando e riducendo i servizi. Nei dispiegamenti classificati, il margine viene protetto in modo diverso: trasformando il supporto specializzato in parte strutturale dell'offerta e aumentando il prezzo per criticità.

La conseguenza è che OpenAI si avvicina a un modello in cui il cliente "Pentagono" non somiglia a un cliente SaaS tipico, ma piuttosto a un cliente di infrastruttura critica. Questo introduce tre dinamiche:

  • Dipendenza reciproca: il governo dipende dal fornitore per operare; il fornitore dipende dal governo per stabilizzare un flusso di entrate altamente prevedibile.
  • Alti costi variabili: personale abilitato, conformità continua e gestione degli incidenti. Ciò mette sotto pressione l'organizzazione per costruire un'unità di esecuzione robusta, non solo un laboratorio.
  • Rischio di prodotto per contesto: ogni eccezione, ogni integrazione e ogni caso estremo spinge a creare strati aggiuntivi di controllo, il che può aumentare frizione e complessità anche per il prodotto commerciale.

Il dato competitivo che abbiamo mostra la sensibilità del mercato: il 1° marzo 2026, Claude ha superato ChatGPT nel ranking dell'App Store. Non prova causalità da solo, ma dimostra che il posizionamento su "linee rosse" può influenzare la preferenza degli utenti nel breve termine. In termini di strategia, OpenAI sembra accettare una possibile erosione reputazionale nel consumismo a fronte di un rafforzamento di un fronte di entrate istituzionali e nel consolidare il suo ruolo come fornitore di riferimento per dispiegamenti ad alta restrizione.

La vera frattura del mercato: chi si assume il rischio di utilizzo

Il conflitto OpenAI–Anthropic viene interpretato come una differenza di valori. Per un operatore, è più utile vederlo come una differenza nella struttura di rischio. Anthropic si è rifiutato di firmare un accordo simile e ha subito una forte rappresaglia istituzionale: designazione di rischio di catena di approvvigionamento e un ordine di ritiro graduale da parte delle agenzie federali. Questo invia un segnale che qualsiasi fondatore comprende: in alcuni mercati, non partecipare ha un costo immediato.

OpenAI, da parte sua, tenta di progettare una partecipazione con limiti: proibisce alcuni usi nel contratto, enfatizza il modello solo cloud e afferma di mantenere discrezionalità sulla sua pila di sicurezza. Propone persino di aver cercato di “descalare” il conflitto tra il governo e i laboratori, chiedendo che gli stessi termini siano offerti agli altri.

La lettura a livello C è che il governo stia spingendo l'industria verso una posizione in cui l'IA avanzata è considerata infrastruttura strategica. In questa categoria, i laboratori smettono di essere solo fornitori e diventano attori operativi all'interno del perimetro della sicurezza nazionale. Ciò cambia il tipo di azienda che devi diventare:

  • Non basta più iterare modello e UX; hai bisogno di operazioni, sicurezza, processi e una catena di decisioni che resista alla pressione.
  • Il principale rischio non è solo che il modello fallisca, ma che l'uso si espanda grazie all'integrazione con sistemi e dati che il laboratorio non controlla.
  • Il principale vantaggio competitivo non è solo la qualità della risposta, ma la capacità di controllo in produzione e la prova di conformità.

Quando il dibattito pubblico si concentra sulla frase “sorveglianza di massa”, si perde una variabile esecutiva: il contratto è un meccanismo di ripartizione delle responsabilità. Se il laboratorio mantiene il controllo del dispiegamento e della pila di sicurezza, mantiene anche parte del rischio reputazionale e operativo. Se l'acquirente esige dispiegamento al bordo e controllo totale, il laboratorio riduce il controllo ma potrebbe cercare di ridurre anche la responsabilità. Il conflitto reale è proprio questa ripartizione.

La direzione del mercato: meno demo, più governance industriale

L'annuncio di Altman includeva un'ammissione rilevante: è stato "definitivamente affrettato" e "l'ottica non è buona". Ciò suggerisce una pressione temporale e una finestra politica concreta. Nelle operazioni, la fretta è nemica di due cose: chiarezza contrattuale e design di controlli misurabili.

Tuttavia, la tendenza è difficile da invertire: i compratori più grandi e più regolamentati richiederanno che l'IA funzioni in condizioni reali, con restrizioni reali. Lo standard competitivo si sposterà verso:

  • Architetture che limitano integrazioni con hardware operativo quando il rischio lo esige.
  • Personale abilitato e processi di cambiamento che trasformano la sicurezza in esecuzione, non in documento.
  • Tracciabilità che consenta di dimostrare, non solo dichiarare, che si rispettano i limiti di utilizzo.
  • Clausole che congelano standard o che definiscono come vengono reinterpretati in caso di cambiamenti legali.

Se OpenAI riesce a gestire questo tipo di contratto senza degradare il suo prodotto generale e senza moltiplicare la burocrazia interna, avrà creato un fossato che non si replica con un modello "leggermente migliore". Se non ci riesce, il costo sarà organizzativo: più livelli, più eccezioni, più frizione e un prodotto che avanza al ritmo del cliente più esigente.

La strategia non si deciderà in X né in un post aziendale. Si deciderà nell'ingegneria del dispiegamento, nei procedimenti di sicurezza e nel costo reale di mantenere barriere verificabili in produzione.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche