O Pentágono transforma a segurança da IA em cláusula contratual

O Pentágono transforma a segurança da IA em cláusula contratual

A ordem para retirar Claude dos sistemas sensíveis é um sinal de que, na defesa, o produto é obediência operacional sob lei e o fornecedor torna-se substituível.

Clara MontesClara Montes11 de março de 20266 min
Compartilhar

Escrevo isso com uma ideia fixa: na defesa, a IA não compete apenas pela qualidade do modelo. Ela compete por se encaixar em uma cadeia de comando, em compras públicas e em um regime de responsabilidade legal onde o cliente não negocia seu espaço de ação.

No dia 27 de fevereiro de 2026, o Departamento de Defesa dos Estados Unidos emitiu um memorando ordenando a seus comandantes que retirassem os modelos Claude da Anthropic de “sistemas chave” em um prazo de 180 dias, após o cancelamento de um contrato de 200 milhões de dólares para implantar IA em redes militares classificadas, segundo a CBS News. A sequência que a fonte descreve é direta: no dia 24 de fevereiro, o secretário de Defesa Pete Hegseth apresentou a Dario Amodei, CEO da Anthropic, um ultimato para eliminar salvaguardas que proibiam o uso para vigilância doméstica em massa e armas totalmente autônomas. Amodei se recusou. Nesse mesmo dia, o presidente Donald Trump publicou no Truth Social uma ordem para que todas as agências federais cessassem “imediatamente” o uso da tecnologia da Anthropic, com o Pentágono como exceção temporária de seis meses para a retirada.

A escalada continuou em 4 de março de 2026, quando o Pentágono designou formalmente a Anthropic como “risco de cadeia de suprimento para a segurança nacional”, efetiva imediatamente, limitando seu uso em contratos do DoD. A Anthropic respondeu com uma ação contra a administração Trump, alegando violações do Administrative Procedure Act, represálias sob a Primeira Emenda e falta de devido processo sob a Quinta. Em uma declaração citada pela CBS, o CFO Krishna Rao advertiu sobre perdas potenciais de receita em 2026 por “múltiplos bilhões de dólares”, incluindo 150 milhões de dólares em receitas recorrentes anuais vinculadas a contratos com o Pentágono e um impacto adicional pela exposição a contratantes de defesa.

O que parece um choque de princípios é, em essência, um choque de definições de produto.

Quando o cliente compra espaço de ação, as salvaguardas se tornam fricção

O Pentágono não estava comprando “um modelo útil” em abstracto. Estava adquirindo capacidade operacional para ambientes classificados e missões reais, com integração em fluxos de inteligência, targeting e comando. A CBS reporta que o uso de Claude já era profundo: foi mencionado que o Comando Indo-Pacífico (INDOPACOM) era o usuário “principal” e que estimativas internas posicionavam a remoção entre três e doze meses pela necessidade de reconfigurar entradas de dados e dependências.

Do lado da Anthropic, as “linhas vermelhas” estavam inseridas como restrições do produto: proibições contra vigilância doméstica em massa e armas totalmente autônomas. Em um mercado corporativo tradicional, essas restrições podem se tornar diferenciação reputacional e gestão de risco para clientes que temem danos à marca ou litígios. Na defesa, segundo o enquadramento que a CBS apresenta, o DoD exigia “flexibilidade total em qualquer uso legal”, arguindo que a lei americana, não a política de uma empresa, deveria governar o emprego militar.

Aqui existe um matiz que muitas equipes comerciais subestimam: quando uma organização “contrata” uma tecnologia para executar decisões soberanas, o valor percebido é medido em controle, disponibilidade e previsibilidade sob pressão. Um sistema que se reserva o direito de dizer “não” em cenários extremos introduz um custo não linear: não é um custo por token ou por licença; é um custo por incerteza no momento de máxima exigência.

Por isso, a discussão não se resolve com um debate abstrato sobre segurança. Ela se resolve como um problema de compras públicas: se o comprador conclui que o fornecedor condiciona o uso, então redefine o fornecedor como risco de suprimento. A etiqueta de “risco de cadeia de suprimento” não descreve uma falha técnica; descreve uma incompatibilidade entre o contrato psicológico do cliente e o design do produto.

A etiqueta de “risco de cadeia de suprimento” reescreve a economia do fornecedor

A designação de 4 de março é o ponto de inflexão. Segundo a CBS, o alcance era restrito em sua redação: Claude ficava proibido apenas “como parte direta” de contratos do DoD, enquanto Amazon, Google e Microsoft podiam continuar oferecendo Claude de forma comercial, excluindo trabalho de defesa. Essa precisão importa por dois motivos.

Primeiro, porque cria um incentivo para segmentar produto e canal. As grandes nuvens podem isolar a exposição a defesa, absorver requisitos específicos e proteger seus negócios civis. Para uma empresa como a Anthropic, cujo crescimento depende de contratos de alto volume e da credibilidade institucional, a etiqueta de risco afeta menos a distribuição comercial e mais o núcleo que valida a “seriedade” do produto: a implementação em ambientes classificados.

Segundo, porque altera a negociação com o restante da indústria de defesa. A CBS aponta o impacto em parceiros como a Palantir, que havia usado Claude no Maven Smart System. Em termos de poder, isso opera como uma ordem de rede: quando o DoD restringe um componente, todo contratante que desejar vender para o DoD deve redesenhar sua stack. Na prática, o governo se torna o arquiteto da demanda e obriga custos de migração que raramente paga de maneira explícita.

Sob uma ótica financeira, o valor de 150 milhões de dólares de ARR em contratos do Pentágono é apenas a parte visível. O risco maior é o efeito colateral: se contratantes e agências civis (a CBS menciona planos do Tesouro e da GSA de interromper negócios) internalizam que o fornecedor pode ser eliminado por decreto, o custo de adotá-lo sobe repentinamente. Não porque seja pior, mas porque a continuidade se torna duvidosa. Essa dúvida se traduz em cláusulas, auditorias, “plano B” obrigatório e, finalmente, em menor disposição de compromisso.

A demanda da Anthropic tenta reverter essa mudança de status. Mas, enquanto o processo avança, a economia cotidiana manda: as equipes de aquisição e os integradores se movem em direção ao que tem menor fricção política.

A mudança de fornecedor expõe um padrão de mercado, não apenas um incidente

A cronologia que a CBS apresenta é cirúrgica em seu simbolismo. Horas após o memorando do dia 27 de fevereiro, a OpenAI assinou um acordo com o Pentágono. E, embora a proibição formal avançasse, a CBS reporta que a Operação Epic Fury, lançada em 28 de fevereiro, continuou usando Claude para inteligência e targeting sobre o Irã no curto prazo. Essa convivência entre “proibição” e “ainda em uso” não é incoerência: é dependência.

Quando uma organização está presa em dependência tecnológica, a substituição nunca é instantânea, por mais dura que seja a ordem. Existem integrações, permissões, fluxos de dados, treinamento de usuários e, sobretudo, procedimentos operacionais onde a IA já alterou a forma de trabalho. Por isso, as estimativas internas de remoção variavam entre três e doze meses, mesmo com um prazo oficial de 180 dias.

Esse episódio revela um padrão que vejo se repetir na inovação: o cliente não contrata “IA segura” como um slogan. Contrata uma combinação de três coisas muito concretas: velocidade de implantação, controle sobre a execução e cobertura política quando algo sai errado. A Anthropic estava oferecendo uma IA com restrições embutidas. O DoD estava comprando uma IA que não renegoce sua conduta no momento crítico.

Nesse choque, ganha quem transforma seu produto em infraestrutura obediente. Isso não significa “sem controles”; significa controles definidos pelo comprador, auditáveis pelo comprador e governáveis pelo comprador. Na defesa, a empresa que pretender manter salvaguardas como política unilateral deve entender que essa escolha funciona como uma condição de serviço que o cliente pode classificar como risco.

A implicação para o restante do mercado é incômoda e operacional. Se os grandes compradores públicos normalizarem a categoria “risco de cadeia de suprimento” por razões de restrições de uso, então qualquer fornecedor de IA empresarial com políticas rígidas de negação enfrentará um novo tipo de avaliação: não se medirá apenas precisão, latência ou custo; medirá-se a capacidade de alinhar-se com o quadro legal do cliente sem impor vetos próprios.

A lição para empresas de IA é projetar governança como produto

A CBS reporta que a Anthropic continuou fornecendo Claude ao DoD a custo nominal durante a transição e que havia conversas “produtivas” recentes sobre salvaguardas. Esse detalhe sugere que a ponte não está totalmente queimada: mesmo em conflito, o comprador precisa de continuidade e o fornecedor precisa de tempo para defender sua posição.

Mas a mudança estrutural já ocorreu. O DoD ordenou aos comandos que auto-relatassem o uso de Claude e priorizassem a transição. Essa prática de inventário forçado é um mecanismo de controle de dependência. Em termos de design de negócios, a pergunta que se torna fechada é simples: o cliente deseja que o fornecedor venda um componente, não que governe seu uso.

Para um CEO ou CFO de IA, isso reordena o mapa do produto.

1) A governança já não é um documento, é uma interface contratual. Se as restrições residem “dentro” do modelo sem uma camada de administração aceitável para o cliente, o cliente interpretará essa restrição como perda de soberania operacional.

2) O risco político torna-se risco de receita. O alerta de Krishna Rao sobre perdas de “múltiplos bilhões” não depende apenas de um contrato, mas da contaminação reputacional em compras públicas e defesa.

3) A migração é parte do valor. Se remover um modelo leva entre três e doze meses, o custo real de adoção inclui a saída, não apenas a entrada. Quem empacotar ferramentas de transição, auditoria e compatibilidade reduz o receio do comprador e ganha licitações.

O ponto cego típico das startups de IA é acreditar que o modelo é o produto. Em verticais de alto risco, o produto é o sistema completo: permissões, rastreabilidade, continuidade operacional, regras de uso e quem tem a chave final.

Finalizo com uma afirmação técnica sobre o comportamento do cliente: esse episódio mostra que o Pentágono estava contratando uma capacidade de IA para aumentar seu espaço de ação sob a lei e na cadeia de comando, e qualquer fornecedor cuja proposta inclua vetos unilaterais acaba competindo como um insumo substituível, não como um parceiro estratégico.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar