O Pentágono chocou com as 'linhas vermelhas' da Anthropic e descobriu um fato incômodo: na IA, a dependência não se negocia com ultimatos

O Pentágono chocou com as 'linhas vermelhas' da Anthropic e descobriu um fato incômodo: na IA, a dependência não se negocia com ultimatos

O episódio Pentágono-Anthropic revela por que a IA de fronteira já opera como infraestrutura crítica.

Clara MontesClara Montes8 de março de 20266 min
Compartilhar

O Pentágono chocou com as 'linhas vermelhas' da Anthropic e descobriu um fato incômodo: na IA, a dependência não se negocia com ultimatos

A sequência é tão rápida quanto reveladora. Em julho de 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa dos EUA para implantar Claude, descrito na cobertura como o primeiro modelo de IA de fronteira aprovado para redes classificadas. O acordo tinha duas restrições explícitas: não usar Claude para vigilância doméstica em massa sobre americanos e não usá-lo para armas totalmente autônomas capazes de selecionar e atacar alvos sem intervenção humana.

Em janeiro de 2026, um memorando de estratégia de IA do Secretário de Defesa, Pete Hegseth, trouxe um giro contratual: exigir uma linguagem de “qualquer uso legal” nos contratos de IA do Pentágono. No final de fevereiro, a pressão aumentou com ultimatos e ameaças de ferramentas legais. No dia 27 de fevereiro, após expirar o prazo sem acordo, o presidente Donald Trump publicou uma diretiva para “cessar imediatamente” o uso da tecnologia da Anthropic em agências federais, com seis meses de prazo para os que já estavam integrados. No mesmo dia, Hegseth designou a Anthropic como “risco de cadeia de suprimento para a segurança nacional”, adicionando uma restrição adicional: nenhum contratante ou parceiro que trabalhasse com o exército poderia manter atividade comercial com a Anthropic.

E então veio a reviravolta. No início de março de 2026, relatórios indicaram que as negociações se reabriram. Paralelamente, uma fonte descreveu um “momento de que isso”: líderes de defesa teriam dimensionado quão indispensável era a Anthropic e o risco operacional de perder o acesso. Em uma citação atribuída por Fortune a Emil Michael, funcionário do Pentágono, aparece uma frase-chave: “Quero todos. Quero dar-lhes os mesmos termos porque preciso de redundância”.

Da minha perspectiva de inovação e comportamento do "cliente" — nesse caso, o Estado — o que importa não é o dramatismo político. O que importa é o mecanismo: quando uma organização integra um modelo de IA em análises, planejamento e operações, ela deixa de comprar um produto. Começa a contratar continuidade operacional.

O conflito real não foi “IA sim ou IA não”, foi a governança do uso

A discussão pública pode ser lida como um choque de princípios, mas comercialmente foi um choque de direitos de uso. A Anthropic sustentou duas salvaguardas como não negociáveis: proibição de vigilância doméstica em massa e proibição de uso em armas totalmente autônomas. O Pentágono tentou substituí-las por um guarda-chuva de “qualquer uso legal” que, segundo a avaliação da Anthropic, vinha acompanhado de uma linguagem que permitiria ignorar as salvaguardas “à vontade”.

Em uma negociação corporativa típica, “uso permitido” é um anexo. Aqui é o coração do produto. Porque na IA de fronteira, a interface de valor não é apenas o modelo; é o sistema de permissões, rastreabilidade, auditoria e responsabilidade que define o que pode ser feito com esse modelo em contextos de alto risco.

O Pentágono tentou algo parecido com o que muitas grandes organizações fazem quando sentem que um fornecedor é crítico: transformar um contrato com limites claros em uma licença ampla que reduza fricções internas futuras. Em sua lógica, “qualquer uso legal” simplifica o governo contratual e evita a necessidade de renegociar sempre que mudam a doutrina, a operação ou o ambiente geopolítico.

A Anthropic, por sua vez, estava defendendo outra forma de proteger seu ativo. Não apenas por reputação, mas também por exposição comercial e regulatória. Se um fornecedor aceita que seu produto pode ser usado em cenários que excedem seu quadro de segurança, ele termina vendendo algo mais caro do que o modelo: vende responsabilidade incerta.

O ponto delicado é que ambas as partes estavam otimizando diferentes riscos. O cliente queria elasticidade e controle; o fornecedor queria limites verificáveis. O choque não prova que uma das duas posições seja “boa” ou “má”. Prova que, quando a IA entra em missões críticas, as cláusulas deixam de ser jurídicas e se tornam arquitetura do negócio.

A designação de “risco de cadeia de suprimento” transformou um desacordo contratual em um problema de continuidade

A etiqueta de “risco de cadeia de suprimento para a segurança nacional” atua como um míssil de sinalização: não precisa ser definitiva para gerar impacto. No curto prazo, dispara incerteza em toda a rede de contratantes e subcontratantes que não podem se dar ao luxo da ambiguidade sobre conformidade.

O briefing menciona que mecanismos como a Defense Production Act e a autoridade sob 10 U.S.C. § 3252 foram considerados para excluir a Anthropic em subcontratos dos sistemas de segurança nacional. Também se destaca que a Anthropic sustentou que, mesmo que a designação fosse legalmente mantida, poderia restringir o uso de Claude no trabalho de contratos do Departamento de Defesa, não necessariamente no trabalho comercial geral.

Em termos de negócio, essa nuance importa menos do que o efeito imediato: uma organização que depende da Claude para análises, planejamento, ciberoperações e simulação, e uma constelação de fornecedores que a utilizam para atender ao Pentágono enfrentam um choque de rota. Não se troca um modelo implantado em ambientes sensíveis da noite para o dia, não apenas por custo, mas também por tempos de migração, revalidação, adaptação de fluxos, treinamento e recertificação interna.

Por isso, a frase do “momento de que isso” é tão crível quanto dinâmica, sem necessidade de adornos. Quando se corta o acesso a uma peça integrada em processos críticos, o “cliente” descobre que o que comprou não era uma ferramenta. Era um andaime operacional.

No consumo, isso acontece quando um serviço se torna hábito e depois infraestrutura. Na defesa, acontece quando uma capacidade se torna a “espinha dorsal” da análise. A reação do Pentágono sugere que Claude atingiu esse limiar.

A lição estratégica: o Estado está aprendendo a comprar IA como se fosse infraestrutura crítica

A citação atribuída a Emil Michael —“preciso de redundância”— revela um padrão de maturidade nas compras tecnológicas: a prioridade deixa de ser “o melhor modelo” e passa a ser resiliência por diversificação. Na prática, isso significa manter alternativas ativas (Anthropic, OpenAI e outros) para que nenhuma interrupção, disputa contratual ou mudança de condições deixe a organização sem capacidade.

Este princípio é antigo em energia, telecomunicações e logística. Em IA de fronteira, começa a ser aplicado atrasado porque o mercado ainda se comporta como se estivesse comprando software tradicional. O caso da Anthropic demonstra que essa analogia já não é suficiente.

Primeiro, porque a “IA” aqui não é um módulo isolado: está implantada em redes classificadas e é usada para funções sensíveis. Segundo, porque o poder de negociação muda quando o fornecedor é um dos poucos capazes de atender a requisitos técnicos e de segurança. Terceiro, porque a governança do uso não se resolve com um checkbox contratual: torna-se parte do design do sistema.

Se o Pentágono insiste em padronizar “qualquer uso legal” para todos, está tentando transformar a IA de fronteira em uma mercadoria contratual. O mercado, por enquanto, não é uma mercadoria. Há poucos fornecedores, e alguns têm linhas vermelhas explícitas.

O resultado provável é que a compra pública evolua em direção a modelos de aquisição com camadas:

  • Termos base comuns para facilitar a portabilidade.

  • Anexos de uso por missão ou domínio.

  • Redundância real em fornecedores, não apenas no papel.
  • Nada disso garante harmonia, mas reduz o risco de que uma disputa contratual se torne uma crise operacional.

    O verdadeiro “produto” da Anthropic para o Pentágono era confiança operacional, não apenas desempenho do modelo

    O briefing lembra que a Anthropic já se posicionou como incomumente “friendli” à defesa para os padrões do Vale do Silício: foi pioneira ao implantar modelos em redes classificadas, ofereceu modelos personalizados para clientes de segurança nacional e Claude era utilizado em múltiplas funções dentro do aparato de defesa. Também se menciona que a empresa declinou receitas significativas ao cortar o acesso a empresas ligadas ao Partido Comunista Chinês e que abortou tentativas de abuso de Claude em ciberataques patrocinados.

    Não é necessário transformar isso em épica para extrair o aprendizado comercial: o Pentágono não estava comprando apenas “capacidade de geração de texto”. Estava contratando um pacote mais amplo de sinais de alinhamento, resposta e controle. Em mercados de alto risco, esses sinais equivalem a uma moeda.

    Quando o governo ordena “cessar imediatamente” e marca o fornecedor como risco, a moeda se desvaloriza para ambos os lados.

    • Para o Pentágono, porque a interrupção pública transmite ao restante da base industrial que a continuidade pode depender da política do momento.
    • Para a Anthropic, porque a etiqueta de risco semeia dúvidas em contratantes, mesmo se mais tarde se negocia uma saída.

    Aqui aparece um princípio incômodo para grandes compradores: o poder de compra não elimina a dependência quando o ativo é escasso e a integração é profunda. A alavanca deixa de ser o volume e passa a ser o design do portfólio e a capacidade de migrar.

    O “momento de que isso” é o sinal de que o comprador colidiu com a realidade da implementação. É a diferença entre ameaçar da área de compras e operar a partir de uma missão.

    A direção que se impõe: desenhar contratos que comprem capacidade sem comprar conflito

    Este episódio deixa uma lição para qualquer organização —pública ou privada— que esteja integrando IA em processos essenciais.

    1) Separar o desejo de controle total da necessidade de continuidade. O controle contratual absoluto costuma maximizar a fricção com fornecedores que protegem limites de uso. A continuidade é maximizada com redundância e com mecanismos de substituição viáveis.

    2) Tratar as salvaguardas como parte do produto. Na IA de fronteira, as restrições de uso não são um capricho; são um componente de risco e reputação. Para o comprador, são também uma forma de disciplina interna: obrigam a documentar, justificar e auditar usos sensíveis.

    3) Construir “opções” antes de precisá-las. A redundância não se improvisa quando já há uma ordem de saída em seis meses. Requer integração paralela, testes, validação e treinamento operacional.

    A frase atribuída a Emil Michael aponta nessa direção: manter “todos” com termos comparáveis para sustentar a redundância. Não é romantismo multivendor; é garantir liberdade de manobra.

    O comportamento do “consumidor” institucional nesta notícia é transparente: o Pentágono estava contratando capacidade imediata e confiável para analisar e decidir em contextos de alta pressão. O choque com a Anthropic demonstra que, quando a IA se torna indispensável, o que o usuário realmente compra não é um modelo mais potente, mas continuidade operacional com limites de uso claros e sustentáveis.

    Compartilhar
    0 votos
    Vote neste artigo!

    Comentários

    ...

    Você também pode gostar