Quando l'IA entra in guerra, il prodotto smette di essere il modello e diventa il controllo

Quando l'IA entra in guerra, il prodotto smette di essere il modello e diventa il controllo

Il Pentagono ha annullato un contratto da 200 milioni di dollari con Anthropic e ha siglato un accordo con OpenAI. La a unità di valore in IA militare non è più l'algoritmo, ma la governance.

Elena CostaElena Costa6 marzo 20266 min
Condividi

Quando l'IA entra in guerra, il prodotto smette di essere il modello e diventa il controllo

La notizia non riguarda una semplice disputa contrattuale tra un fornitore tecnologico e il governo degli Stati Uniti. Si tratta di un cambio di potere nella catena di fornitura dell'IA applicata alla sicurezza nazionale. Il 6 marzo 2026, il Dipartimento della Difesa degli Stati Uniti ha annullato un contratto di 200 milioni di dollari con Anthropic, classificando l'azienda come "rischio per la catena di approvvigionamento per la sicurezza nazionale", un'etichetta riservata storicamente a avversari stranieri. In poche ore, il Pentagono ha chiuso un accordo concorrente con OpenAI per implementazioni classificate. Tutto ciò è stato alimentato da un disaccordo specifico: Anthropic si è rifiutata di rimuovere le salvaguardie contrattuali contro la sorveglianza di massa domestica e contro l'uso di armi completamente autonome senza supervisione umana significativa.

Il dettaglio operativo che rende la situazione più seria è che Claude era già profondamente integrato: era stato implementato in reti classificate del governo, in laboratori nucleari nazionali e in flussi di analisi d'intelligence, con il dispiegamento tramite la piattaforma di IA di Palantir. Annullare un contratto non significa disinstallare un sistema già presente in processi critici. Per questo motivo, il Pentagono ha avviato un periodo di transizione di sei mesi per rimuovere Claude dai suoi sistemi.

Vista dal punto di vista commerciale, questa storia è un'istantanea di come l'IA venga "prodotta" quando la tolleranza all'errore è minima. Nel consumo, il prodotto è la prestazione. Nella difesa, il prodotto è la prestazione più il controllo: chi decide, come si limita, come si audita e come si risponde quando il modello commette errori.

Il Pentagono non sta comprando IA, sta comprando opzioni operative

Il 9 gennaio 2026, il Dipartimento della Difesa ha pubblicato la sua AI Acceleration Strategy, definita la più aggressiva delle sue strategie recenti. Il documento ha fissato sette progetti “marcatori di passo” —dai droni autonomi alla gestione delle battaglie abilitata dall'IA— e ha contenuto un'esigenza centrale che spiega il conflitto: i modelli contrattati dovevano essere implementabili entro 30 giorni dal loro lancio pubblico e utilizzabili per “tutti i fini leciti”.

Quella frase, “tutti i fini leciti”, è il vero requisito del prodotto. In un contesto in cui gli avversari evolvono rapidamente tattiche e tecnologie, l'acquirente istituzionale cerca di evitare il collo di bottiglia di dover rinegoziare i permessi ogni volta che emerge un nuovo caso d'uso. In altre parole: cerca opzioni. La scommessa implicita è che le salvaguardie devono risiedere meno in un contratto che viene interpretato e più in un sistema che viene governato.

La risposta del Pentagono, espressa dal segretario Pete Hegseth al momento della cancellazione, accusa Anthropic di tentare di catturare un “potere di veto” sulle operazioni militari, sostenendo una posizione incompatibile con i principi statunitensi. Al di là della retorica, la logica degli acquisti è chiara: la difesa vuole fornitori che accettino un ampio quadro e risolvano i limiti d'uso all'interno di uno schema operativo.

Qui emerge una tensione che i leader aziendali riconoscono immediatamente. Quando un sistema di IA diventa infrastruttura critica, il cliente cerca di minimizzare dipendenze e frizioni. E quando il fornitore teme che la sua tecnologia venga utilizzata in scenari che considera inaccettabili, cerca di proteggersi con clausole. La collisione non è accidentale; è il sintomo che l'IA non è più solo uno strumento, è capacità.

La linea rossa di Anthropic ha trasformato la sicurezza in un problema architettonico, non di marketing

Anthropic ha posto due condizioni non negoziabili: niente sorveglianza di massa domestica sui cittadini statunitensi e niente armi completamente autonome senza supervisione umana significativa. Secondo i rapporti, il Pentagono ha descritto queste categorie come aree grigie e ha considerato “impraticabile” negoziare caso per caso.

La lettura esecutiva è dura ma utile: in scenari estremi, l'acquirente punisce l'ambiguità operativa. Una clausola che dipende da interpretazione legale e contesto politico diventa frizione quando il sistema deve operare in tempo reale e attraverso molteplici comandi, alleati, teatri e classificazioni.

L'elemento più rivelatore è che Claude era, al momento della disputa, l'unico modello di IA operante in reti classificate del Pentagono. In altre parole, il “rischio” non era che Anthropic non fosse dentro, ma che fosse già troppo dentro e, nonostante ciò, esistesse la possibilità che il fornitore condizionasse l'uso o l'evoluzione del dispiegamento. In infrastrutture critiche, il peggior scenario per l'acquirente non è la falla tecnica; è la mancanza di governabilità del fornitore.

C'è anche un secondo ordine: la designazione di “rischio per la catena di approvvigionamento” non colpisce solo un contratto; può irradiarsi verso integratori e partner. Le notizie riportano che Google, Salesforce e NVIDIA sono investitori o partner ingegneristici. Per chiunque venda al governo o a fornitori di difesa, un'etichetta di rischio nella catena di approvvigionamento costringe a segmentare operazioni, stabilire cortafire interni e, in alcuni casi, rinunciare a una parte del mercato per proteggere un'altra.

Sotto l'aspetto dell'impatto umano, il messaggio è altrettanto critico: se le barriere contro la sorveglianza di massa e le armi autonome vengono discusse come “aree grigie”, allora il mercato ha bisogno di progetti di controllo verificabili. Senza verifica, il dibattito si riduce a fiducia e narrazioni. E nella difesa, le narrazioni durano quanto una crisi.

OpenAI e il cambio di unità di valore: da clausole a controlli operativi

Poche ore dopo la cancellazione, il Pentagono ha firmato con OpenAI. Sam Altman ha difeso pubblicamente che il suo approccio preserva gli stessi principi a cui Anthropic teneva, ma con meccanismi differenti: accettare il quadro per “tutti i fini leciti” e sovrapporre controlli architettonici. Secondo le informazioni riportate, OpenAI ha strutturato uno schema con dispiegamento in cloud, uno strato di sicurezza proprietaria che il Pentagono ha accettato di non annullare, e personale accreditato integrato per operare e mantenere le barriere in ambienti classificati.

Se questo si mantiene nella pratica, è un cambio di prodotto: il modello diventa un componente e l'offerta reale è un pacchetto di dispiegamento, monitoraggio, limitazione, risposta e manutenzione in condizioni estreme.

Per un CFO o un responsabile del rischio, il parallelo aziendale è immediato. In settori regolamentati, le aziende hanno già imparato che “comprare IA” significa acquistare un sistema completo: controllo degli accessi, tracciabilità, registri, valutazioni dei bias e meccanismi di escalation quando ci sono incidenti. La difesa porta questa logica all'estremo, con un aggravante: gli incentivi operativi favoriscono velocità e adattabilità.

La disputa rivela anche una segmentazione del mercato dell'IA avanzata. Nel luglio 2025, quattro aziende hanno ricevuto contratti potenziali fino a 200 milioni di dollari: Anthropic, OpenAI, Google e xAI. In questo contesto, alcuni fornitori accettano il linguaggio ampio d'uso e altri richiedono divieti contrattuali espliciti. Non è una discussione filosofica; è una decisione aziendale su dove posizionare il rischio e come monetizzare un segmento di altissimo valore.

Il costo reale è nell'"uscita" e in chi controlla la dipendenza

Un dato sepolto nella copertura ha più peso di qualsiasi titolo: rimuovere Claude dalle reti classificate richiederà sei mesi. Un funzionario citato lo ha descritto come un enorme dolore di disinstallazione. Questa frase riassume l'economia politica dell'IA nelle grandi istituzioni.

Una volta che un modello è connesso a flussi d'analisi, documentazione, valutazione dell'intelligence e modellazione operativa, la dipendenza diventa strutturale. Il costo non è nella licenza del modello; sta nel ripristino dei processi, nella formazione degli utenti, nei connettori, nell'adattamento alle classificazioni, nella validazione e nella ri-accreditazione della sicurezza. L'"uscita" diventa costosa quanto l'"entrata".

E quando l'uscita è costosa, la governance diventa leva. Per questo il dibattito non riguarda più chi ha il miglior modello, ma chi offre migliori garanzie di continuità, controllo e conformità. Il Pentagono ha tentato di risolverlo con potere contrattuale e di reputazione tramite l'etichetta di “rischio per la catena di approvvigionamento”. Anthropic ha cercato di risolverlo con limiti espliciti tramite contratto. OpenAI, secondo quanto riportato, ha risolto con il design di controlli e condizioni operative.

C'è anche un componente operativo: è stato riferito che il Comando Centrale degli Stati Uniti ha utilizzato l'IA di Anthropic durante l'Operazione Epic Fury, un'operazione congiunta Stati Uniti-Israele contro l'Iran, per valutazione dell'intelligence, analisi dei bersagli e modellazione operativa. Questo non prova la superiorità tecnica di un fornitore; prova integrazione reale. E l'integrazione reale è il campo in cui si combattono queste battaglie.

Per il mercato civile, l'implicazione è scomoda ma utile: la conversazione sui guardrail non si chiude con “principi” né con “promesse”. Si chiude con meccanismi verificabili, responsabilità distribuite e tracciabilità. Se un'organizzazione non può dimostrare come limita un sistema sotto pressione, allora non controlla il sistema; lo sta aspettando.

La finestra per i leader: trasformare l'IA in intelligenza aumentata con governance misurabile

Dal mio punto di vista, questo episodio conferma una transizione: l'IA sta passando da software a infrastruttura strategica. In questa transizione, il differenziale competitivo passa dal semplice accesso al modello alla capacità di governarlo senza frenare l'operazione.

Per i leader aziendali, questo si traduce in tre decisioni concrete.

Primo, separare "capacità del modello" da "capacità di controllo". Molte aziende comprano prestazioni e poi improvvisano audit, limiti, registrazioni e risposte agli incidenti. In settori sensibili, questo è un investimento sbagliato. La governance deve essere acquistata e progettata come prodotto fin dal primo giorno.

Secondo, progettare una dipendenza con uscita pianificata. Se disattaccare un modello richiede sei mesi in ambienti dove il denaro non è il principale vincolo, in corporazioni può richiedere di più. La portabilità, gli standard interni e l'architettura d'integrazione sono strategie finanziarie, non decisioni di IT.

Terzo, insistere sull'intelligenza aumentata come disciplina operativa: supervisione significativa, tracciabilità delle decisioni e responsabilità chiara. L'efficienza senza coscienza amplifica gli errori, e nei sistemi critici l'errore si traduce in danno.

Questo mercato è già entrato in una fase in cui la digitalizzazione accelera l'adozione, la delusione si verifica quando il controllo non è pronto e la discontinuità si verifica quando la governance diventa più preziosa del modello. La tecnologia deve potenziare il giudizio umano con controlli misurabili e accesso responsabile, democratizzando le capacità senza democratizzare il danno.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche