Il Pentagono trasforma la sicurezza dell'IA in clausola contrattuale

Il Pentagono trasforma la sicurezza dell'IA in clausola contrattuale

L'ordine di rimuovere Claude dai sistemi sensibili non è solo una disputa sui "guardrails". Segna un cambiamento nell'approccio della difesa alla tecnologia IA.

Clara MontesClara Montes11 marzo 20266 min
Condividi

Scrivo questo con un'idea fissa: nella difesa, l'IA non compete solo per la qualità del modello. Compete per inserirsi in una catena di comando, negli acquisti pubblici e in un regime di responsabilità legale dove il cliente non negozia il proprio margine di azione.

Il 27 febbraio 2026, il Dipartimento della Difesa degli Stati Uniti ha emesso un memo ordinando ai suoi comandanti di rimuovere i modelli Claude di Anthropic da "sistemi chiave" entro un periodo di 180 giorni, dopo la cancellazione di un contratto da 200 milioni di dollari per il dispiegamento dell'IA in reti militari classificate, secondo CBS News. La sequenza descritta dalla fonte è diretta: il 24 febbraio, il segretario della Difesa Pete Hegseth ha posto a Dario Amodei, CEO di Anthropic, un ultimatum per rimuovere le salvaguardie che vietavano l'uso per sorveglianza domestica di massa e armi totalmente autonome. Amodei si è rifiutato. Nello stesso giorno, il presidente Donald Trump ha pubblicato su Truth Social un ordine affinché tutte le agenzie federali cessassero "immediatamente" l'uso della tecnologia di Anthropic, con il Pentagono come eccezione temporanea di sei mesi per la rimozione.

L'escalation è continuata il 4 marzo 2026, quando il Pentagono ha formalmente designato Anthropic come "rischio di catena di approvvigionamento per la sicurezza nazionale", efficace immediatamente, limitando il suo utilizzo nei contratti del DoD. Anthropic ha risposto con una causa contro l'amministrazione Trump, denunciando violazioni dell'Administrative Procedure Act, ritorsioni ai sensi del Primo Emendamento e mancanza di giusto processo ai sensi del Quinto. In una dichiarazione citata da CBS, il CFO Krishna Rao ha avvertito di potenziali perdite di ricavi nel 2026 per "miliardi di dollari", inclusi 150 milioni di dollari di ricavi ricorrenti annuali legati a contratti con il Pentagono e un ulteriore impatto dovuto all'esposizione a contrattisti della difesa.

Quello che sembra un conflitto di principi è, in fondo, un conflitto di definizione del prodotto.

Quando il cliente acquista margini di azione, le salvaguardie diventano frizione

Il Pentagono non stava acquistando "un modello utile" in astratto. Stava acquistando capacità operativa per ambienti classificati e missioni reali, con integrazione in flussi di intelligence, targeting e comando. CBS riporta che l'utilizzo di Claude era già profondo: si menzionava che il Comando Indo-Pacifica (INDOPACOM) era l'utente "principale" e che stime interne situavano la rimozione tra tre e dodici mesi per la necessità di riconfigurare le entrate di dati e le dipendenze.

Dal lato di Anthropic, le "linee rosse" erano incorporate come restrizioni del prodotto: divieti contro la sorveglianza domestica di massa e le armi totalmente autonome. In un mercato tradizionale, tali restrizioni possono diventare differenziazione reputazionale e gestione del rischio per i clienti che temono danni di immagine o contenziosi. In difesa, secondo il quadro raccolto da CBS, il DoD richiedeva "flessibilità totale in qualsiasi uso legale", sostenendo che la legge statunitense, non la politica di un'azienda, dovesse governare l'impiego militare.

Qui c'è una sfumatura che molti team commerciali sottovalutano: quando un'organizzazione "acquista" una tecnologia per eseguire decisioni sovrane, il valore percepito si misura in controllo, disponibilità e prevedibilità sotto pressione. Un sistema che si riserva il diritto di dire "no" in scenari estremi introduce un costo non lineare: non è un costo per token o per licenza; è un costo per incertezza nel momento di massima esigenza.

Per questo motivo, la discussione non si risolve con un dibattito astratto sulla sicurezza. Si risolve come un problema di acquisti pubblici: se l'acquirente conclude che il fornitore condiziona l'uso, allora ridefinisce il fornitore come rischio di approvvigionamento. L'etichetta di "supply chain risk" non descrive un guasto tecnico; descrive un'incompatibilità tra il contratto psicologico del cliente e il design del prodotto.

L'etichetta di "rischio di catena di approvvigionamento" riscrive l'economia del fornitore

La designazione del 4 marzo è il punto di svolta. Secondo CBS, l'ambito era ristretto nella sua formulazione: Claude era vietato solo "come parte diretta" dei contratti del DoD, mentre Amazon, Google e Microsoft potevano continuare ad offrire Claude commercialmente, escludendo il lavoro di difesa. Questa precisione è importante per due motivi.

Primo, perché crea un incentivo a segmentare prodotto e canale. Le grandi nuvole possono isolare l'esposizione alla difesa, assorbire requisiti specifici e proteggere il proprio business civile. Per una società come Anthropic, il cui crescita dipende da contratti di alto volume e dalla credibilità istituzionale, l'etichetta di rischio influisce meno sulla distribuzione commerciale e più sul nucleo che convalida la "serietà" del prodotto: il dispiegamento in ambienti classificati.

Secondo, perché altera la negoziazione con il resto dell'industria della difesa. CBS segnala l'impatto su partner come Palantir, che aveva utilizzato Claude in Maven Smart System. In termini di potere, questo funziona come un ordine di rete: quando il DoD limita un componente, ogni contraente che desidera vendere al DoD deve ridisegnare il proprio stack. Nella pratica, il governo diventa l'architetto della domanda e obbliga a costi di migrazione che raramente paga esplicitamente.

Da un'ottica finanziaria, la cifra di 150 milioni di dollari di ARR in contratti del Pentagono è solo la parte visibile. Il rischio maggiore è l'effetto di seconda ondata: se i contraenti e le agenzie civili (CBS menziona i piani del Tesoro e della GSA di interrompere gli affari) interiorizzano che il fornitore può essere escluso per decreto, il costo di adottarlo aumenta notevolmente. Non perché sia peggiore, ma perché la continuità diventa incerta. Questa incertezza si traduce in clausole, audit, "piano B" obbligatorio e, infine, in minore propensione a impegnarsi.

La causa di Anthropic cerca di fermare quel cambiamento di status. Ma, mentre il processo si svolge, l'economia quotidiana comanda: i team di acquisizione e gli integratori si muovono verso ciò che ha minore frizione politica.

Il cambiamento di fornitore espone un modello di mercato, non solo un incidente

La cronologia riportata da CBS è chirurgica nel suo simbolismo. Ore dopo il memo del 27 febbraio, OpenAI ha firmato un accordo con il Pentagono. E sebbene il divieto formale avanzava, CBS riporta che l'Operazione Epic Fury, lanciata il 28 febbraio, continuava a usare Claude per intelligence e targeting sull'Iran nel breve termine. Questa convivenza di "vietato" e "ancora in uso" non è incoerenza: è dipendenza.

Quando un'organizzazione è intrappolata in una dipendenza tecnologica, la sostituzione non è mai istantanea, per quanto dura possa essere l'ordinanza. Ci sono integrazioni, permessi, flussi di dati, formazione degli utenti e, soprattutto, procedure operative dove l'IA ha già alterato il modo di lavorare. È per questo che le stime interne di rimozione oscillavano tra tre e dodici mesi, anche con un termine ufficiale di 180 giorni.

Questo episodio rivela un modello che vedo ripetersi nell'innovazione: il cliente non acquista "IA sicura" come slogan. Acquista una combinazione di tre cose molto concrete: velocità di dispiegamento, controllo sull'esecuzione e copertura politica quando qualcosa va storto. Anthropic stava offrendo un'IA con restrizioni incorporate. Il DoD stava acquistando un'IA che non rinnegozia il suo comportamento nel momento critico.

In questo scontro, vince chi trasforma il proprio prodotto in infrastruttura ubbidiente. Ciò non significa "senza controlli"; significa controlli definiti dall'acquirente, auditabili dall'acquirente e governabili dall'acquirente. Nella difesa, l'azienda che intenda mantenere i guardrails come politica unilaterale deve assumere che questa scelta funzioni come una condizione di servizio che il cliente può classificare come rischio.

L'implicazione per il resto del mercato è scomoda e operativa. Se i grandi acquirenti pubblici normalizzano la categoria "rischio di catena di approvvigionamento" per motivi di restrizioni all'uso, allora qualsiasi fornitore di IA aziendale con politiche di diniego forti affronta un nuovo tipo di valutazione: non si misureranno solo precisione, latenza o costo; si misurerà la capacità di allinearsi con il quadro legale del cliente senza imporre veti propri.

La lezione per le aziende di IA è progettare la governance come prodotto

CBS riporta che Anthropic ha continuato a fornire Claude al DoD a costo nominale durante la transizione e che ci sono stati colloqui "produttivi" recenti sulle salvaguardie. Questo dettaglio suggerisce che il ponte non è completamente bruciato: anche in conflitto, l'acquirente ha bisogno di continuità e il fornitore ha bisogno di tempo per difendere la propria posizione.

Ma la svolta strutturale è già avvenuta. Il DoD ha ordinato ai comandi di auto-rapportare l'uso di Claude e di dare priorità alla transizione. Questa pratica di inventario forzato è un meccanismo di controllo della dipendenza. In termini di design aziendale, la domanda che rimane chiusa è semplice: il cliente vuole che il fornitore venda un componente, non che governi il suo uso.

Per un CEO o CFO nell'IA, questo riorganizza la mappa del prodotto.

1) La governance non è più un documento, è un'interfaccia contrattuale. Se le restrizioni vivono "dentro" il modello senza un livello di gestione accettabile per il cliente, il cliente interpreterà quella restrizione come perdita di sovranità operativa.

2) Il rischio politico diventa rischio di reddito. L'avvertimento di Krishna Rao sulle perdite per "miliardi" non dipende solo da un contratto, ma dal contagio reputazionale negli acquisti pubblici e nella difesa.

3) La migrazione fa parte del valore. Se rimuovere un modello richiede tra tre e dodici mesi, il costo reale di adozione include uscita, non solo entrata. Chi imballa strumenti di transizione, audit e compatibilità riduce la paura dell'acquirente e vince le licitazioni.

Il punto cieco tipico delle startup di IA è credere che il modello sia il prodotto. Nei settori ad alto rischio, il prodotto è il sistema completo: permessi, tracciabilità, continuità operativa, regole d'uso e chi detiene la chiave finale.

Concludo con un'affermazione tecnica sul comportamento del cliente: questo episodio dimostra che il Pentagono stava contrattando una capacità di IA per aumentare il suo margine di azione sotto legge e catena di comando, e qualsiasi fornitore la cui proposta includa veti unilaterali finisce per competere come una risorsa sostituibile, non come un partner strategico.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche