Quando o "uso legal" choca com a segurança: a batalha por quem governa a IA militar

Quando o "uso legal" choca com a segurança: a batalha por quem governa a IA militar

O Pentágono quer que Claude possa ser usado para "todos os fins legais"; Anthropic se recusa a retirar barreiras contra vigilância e armas autônomas.

Elena CostaElena Costa27 de fevereiro de 20266 min
Compartilhar

Quando o "uso legal" choca com a segurança: a batalha por quem governa a IA militar

É raro ver um fornecedor tecnológico dizer "não" quando há até 200 milhões de dólares em jogo e o cliente é o estado com o maior orçamento de defesa do mundo. Mesmo assim, a Anthropic fez isso.

No dia 26 de fevereiro de 2026, seu CEO, Dario Amodei, publicou que a empresa "não pode, em consciência", aceitar a exigência do Departamento de Defesa dos Estados Unidos de retirar salvaguardas de Claude. No centro do desacordo estão duas limitações: proibir o uso do modelo em vigilância doméstica massiva e em armas letais totalmente autônomas. Segundo a cobertura do The Guardian, o Pentágono, sob o secretário de Defesa Pete Hegseth, respondeu com um ultimato: se a Anthropic não permitir o uso de Claude para “todos os fins legais” em ambientes classificados, o contrato pode ser cancelado às 17:01 ET do dia 27 de fevereiro e a companhia pode ser rotulada como “risco para a cadeia de suprimento”. Uma classificação habitualmente associada a ameaças externas, não a uma empresa americana.

A superfície da notícia parece um choque de valores. A mecânica real é mais incômoda: o governo está tentando transformar a governança de um modelo em uma cláusula contratual, e a empresa está tentando converter suas políticas de segurança em uma condição de serviço. Entre eles, ficam os operadores que precisam de capacidades e os contribuintes que exigem garantias.

O contrato como campo de batalha por controle do modelo

O importante não é apenas que exista um contrato de até 200 milhões de dólares. É a natureza do ativo que está sendo comprado. Um modelo fundacional não é um software tradicional que é entregue e permanece "fechado" em uma versão. É um sistema que se atualiza, se afina, se integra com fluxos de dados e adquire novas capacidades com o tempo. Na prática, comprar IA hoje se assemelha mais a contratar uma infraestrutura crítica do que a licenciar um produto.

Por isso, o Pentágono pressiona pela fórmula de “todos os fins legais”. Da sua lógica, qualquer restrição adicional à lei equivale a um fornecedor privado impondo limites operacionais ao Estado. O subsecretário de Pesquisa e Engenharia, Emil Michael, em declarações citadas pelo The Guardian, emoldurou o problema como uma defesa das liberdades civis contra decisões de “BigTech”, e questionou como uma empresa pode estabelecer limites além das normas aprovadas democraticamente.

A Anthropic, por sua vez, argumenta que a linguagem proposta permitiria que suas salvaguardas fossem ignoradas à vontade. Um porta-voz anônimo descreveu que a última redação recebida do DoD mostrava “virtualmente nenhum progresso” e que o “compromisso” era principalmente legalista. A empresa não discute o uso militar em geral; Amodei chegou a escrever que acredita na “importância existencial” de usar IA para proteger os Estados Unidos. Ela discute duas aplicações onde, segundo sua tese, o modelo poderia “socavar valores democráticos”.

Essa é a sinalização estratégica para o mercado: a negociação não se trata mais de preço, desempenho ou suporte. A questão é quem tem a chave de bypass. Se o cliente pode desativar controles “quando necessário”, as salvaguardas se tornam mera decoração. Se o fornecedor pode bloquear categorias de uso mesmo em ambientes classificados, o Estado sente que está terceirizando sua soberania operacional.

A ameaça de rotular a Anthropic como “risco para a cadeia de suprimento” amplifica o pulso: não penaliza apenas o contrato pontual, mas a capacidade futura de vender ao governo e de ser aceito por contratantes como Boeing ou Lockheed Martin, que teriam sido solicitados a avaliar sua exposição, segundo a mesma cobertura. É uma ferramenta de poder que reorganiza incentivos em todo o setor.

A segurança deixa de ser um princípio e passa a ser arquitetura de produto

De fora, “salvaguardas” soa como uma política corporativa. Na prática, é design de produto e, por extensão, design de poder. Quando um modelo proíbe vigilância massiva ou armas autônomas, ele limita a escalabilidade de certos usos. E aqui surge a fricção: a IA reduz custos marginais e torna replicável o que antes era caro.

Na vigilância, a mudança é drástica. A diferença entre analisar manualmente informações dispersas e automatizar classificação, priorização e correlação é a transição de uma operação cara a uma capacidade potencialmente onipresente. A mesma lógica se aplica a sistemas letais: a automação reduz a fricção, acelera ciclos de decisão e difumina a responsabilidade se não existir um design explícito de supervisão humana.

O Pentágono insiste que se rege por leis como a Quarta Emenda, segundo argumentos citados, e que não deve aceitar limites privados adicionais. Esse ponto é coerente no plano institucional. O problema é que “legal” e “prudente” não são sinônimos em sistemas que amplificam capacidade. Um uso pode ser legal e, mesmo assim, criar um precedente operacional que posteriormente seja difícil de reverter.

Aqui vejo o núcleo da economia política da IA: a discussão se desloca de “o que o modelo pode fazer” para “o que o sistema que o rodeia pode fazer”. Um modelo em um ambiente classificado, integrado via plataformas como Amazon e Palantir (mencionadas na história), não é um chatbot. É um componente em uma cadeia de decisão. Nesse contexto, as salvaguardas são menos uma postura moral e mais uma forma de gerenciar risco sistêmico.

O que a Anthropic defende, pelo menos em sua formação pública, é uma ideia de IA como inteligência aumentada, não como substituto do juízo. Se um sistema é usado para vigilância massiva ou para delegar letalidade, o humano deixa de ser supervisor e passa a ser, na melhor das hipóteses, um assinante tardio. Essa é a fronteira que a empresa busca estabelecer em contrato.

Um precedente que reordena o mercado de fornecedores de IA para defesa

O mercado já havia começado a consolidar uma tese: o Departamento de Defesa não quer um fornecedor, quer um catálogo. No verão passado, o Chief Digital & AI Office concedeu contratos de até 200 milhões a Anthropic, Google, xAI e OpenAI para customizar IA generativa para usos militares, segundo o The Guardian. A ideia óbvia é evitar dependência de um único ator e acelerar capacidades.

Mas o detalhe que muda a negociação é que a Anthropic, de acordo com a mesma fonte, é o único modelo utilizado em ambientes classificados até o momento, o que lhe dava vantagem em experiência e, portanto, poder de negociação. Esse poder é precisamente o que o Pentágono tenta neutralizar padronizando a cláusula de “todos os fins legais” como baseline contratual.

Se essa cláusula se tornar norma, a mensagem para os demais fornecedores é clara: quem quiser entrar no mundo classificado deve aceitar que suas políticas internas não funcionem como limites. Não é necessário que o governo prometa que as usará para vigilância massiva ou armas autônomas. Apenas precisa garantir o direito de fazê-lo se sua interpretação legal o permitir.

Em paralelo, abre-se um caminho competitivo. A nota menciona que xAI aceitou o padrão de “todos os fins legais” para trabalho classificado. Isso gera um risco financeiro imediato para a Anthropic: perder o contrato não significa apenas perder receitas potenciais, mas ceder terreno em um segmento onde a credibilidade se constrói com implementações reais, não com promessas.

Também há um custo para o Pentágono se executar a ameaça. O porta-voz Sean Parnell alertou no X que deixar de permitir esses usos colocaria operações e “guerreiros” em risco, e que não permitirão que “nenhuma empresa dite os termos”. Essa postura endurece a negociação, mas também eleva o custo reputacional de dispensar um fornecedor já integrado. Em compras de defesa, trocar de fornecedor raramente é uma transição limpa, embora Amodei tenha indicado disposição para uma “transição suave” para outro.

O ângulo menos comentado é o da governança industrial: se os Estados Unidos rotulam uma empresa local como “risco de cadeia de suprimento” em um conflito contratual, o setor inteiro internaliza que a não conformidade é punida como uma ameaça. Isso acelera a “disciplina” do mercado, mas pode desincentivar quem constrói barreiras de segurança robustas por design.

O fator Defesa de Produção e a expansão do poder estatal sobre modelos

A cobertura também menciona que o Pentágono considerou invocar a Defense Production Act (DPA) para forçar acesso sem restrições, apesar de dúvidas legais levantadas por especialistas em políticas de IA. Essa possibilidade importa mesmo que nunca seja executada. É um sinal de que o Estado está disposto a tratar modelos avançados como recursos estratégicos e a empurrar instrumentos de tempos de guerra para a economia digital.

Da perspectiva empresarial, a DPA altera o cálculo de risco. Se o governo pode declarar um sistema “essencial” e forçar condições, então a estratégia de “vender ao setor público para estabilizar receitas” deixa de ser simples. O contrato se assemelha mais a um acordo com capacidade de coerção. E isso força os conselhos de administração a se questionarem sobre o que realmente estão comprando: vendas ou exposição.

Há uma contradição que Amodei destacou e que é operativamente relevante: ao mesmo tempo em que se ameaça declarar a Anthropic um risco de cadeia de suprimento, avalia-se forçar acesso porque o modelo seria essencial para a segurança nacional. Essa tensão não é apenas retórica; revela um Estado que deseja dependência sem dependência, ou seja, acesso e controle sem aceitar a assimetria de que o fornecedor também detém poder.

A saída provável não é uma vitória absoluta de uma parte. É um redesenho contratual que cria uma zona cinza: salvaguardas no papel, exceções sob certos processos, auditorias internas e uma linguagem que preserve margem de manobra para o DoD. O problema da zona cinza é que, em sistemas que escalam, o que não está tecnicamente garantido se erosiona com o tempo.

O que fica claro é o padrão: a IA na defesa entra em uma fase onde o ativo crítico já não é o modelo, mas sim o governo de seu uso. Quem controlar essa alavanca controla o valor.

A direção inevitável é governança técnica, não apenas cláusulas

Como futurista focada em impacto, vejo essa disputa como um sintoma de maturidade. A IA deixou de ser uma compra “inovadora” e se tornou infraestrutura. Na infraestrutura, a discussão real é quem define os limites, quem audita as exceções e quem arca com o custo quando um uso “legal” produz danos operacionais, políticos ou sociais.

O nível executivo deveria ler esse caso como uma lição sobre compras de IA em setores regulados: os princípios de segurança que não estão integrados na arquitetura e processos acabam sendo negociados como anexos contratuais, e os anexos quebram sob pressão. Se a segurança depende da boa vontade, não escala.

Além disso, é um lembrete de como a convergência digital erosiona monopólios de decisão. Nem o governo pode assumir o controle total sobre modelos construídos no setor privado, nem as empresas podem pretender que políticas internas substituam marcos democráticos. A única saída estável é projetar sistemas onde a inteligência aumentada preserve a supervisão humana verificável e a rastreabilidade.

Este mercado está transitando da digitalização para a disrupção da governança: o valor se deslocará para aqueles que transformarem salvaguardas em engenharia auditável e reduzirem o custo de cumprir sem degradar capacidades. A tecnologia deve empoderar o julgamento humano e democratizar garantias, não apenas acelerar operações.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar