A IA que o Pentágono rejeitou e Washington não pode ignorar
Em 5 de março de 2026, o Departamento de Defesa dos Estados Unidos colocou a Anthropic em uma lista que habitualmente reserva para adversários estrangeiros: a categoria de risco na cadeia de suprimentos. A medida foi direta e severa. Se mantida, poderia cortar pela raiz o acesso da empresa a contratos federais que somam bilhões de dólares. Na prática, equivalia a declarar um dos construtores de IA mais avançados do país como uma ameaça à segurança nacional.
Quatro dias depois, a Anthropic processou o Pentágono. E seis semanas mais tarde, Dario Amodei, CEO da empresa, se sentava em uma reunião descrita pela Casa Branca como "produtiva e construtiva" ao lado de Susie Wiles, Chefe de Gabinete, e Scott Bessent, Secretário do Tesouro. A mesma administração que havia declarado a Anthropic como inimiga estava agora buscando fórmulas de colaboração com ela.
Essa aparente guinada não é uma contradição menor. É um sinal de que a dependência estratégica dos Estados Unidos em seu próprio tecido tecnológico está gerando fraturas dentro do próprio governo, e que essas fraturas têm consequências econômicas e geopolíticas que nenhum funcionário pode se dar ao luxo de subestimar.
Quando um ativo nacional se transforma em um problema de aquisição
A origem do conflito é específica: a Anthropic se recusou a permitir que seus modelos de IA fossem usados em armas autônomas ou em programas de vigilância doméstica em massa. Não foi uma postura filosófica genérica. Foi uma cláusula operacional concreta nas negociações contratuais, e o Pentágono não estava disposto a aceitá-la.
O que se seguiu ilustra com clareza a diferença entre duas lógicas institucionais que hoje operam em paralelo dentro do governo norte-americano. A lógica militar busca acesso irrestrito a tecnologia que possa ser integrada em sistemas de tomada de decisão autônomos. A lógica civil, representada pelo Tesouro e pela Casa Branca neste caso, enxerga na Anthropic um ativo estratégico para a competitividade nacional em cibersegurança, setor bancário e a corrida global de inteligência artificial.
A tensão entre ambas as lógicas ficou exposta quando vazou a informação de que praticamente todas as agências federais, exceto o Departamento de Defesa, querem utilizar a tecnologia da Anthropic. Essa informação, confirmada por fontes dentro da própria administração ao Axios, transforma o rótulo do Pentágono no que o cofundador Jack Clark descreveu como um "conflito contratual pontual", e não como um veredicto sobre a empresa.
O problema financeiro para a Anthropic continua sendo real. A designação de risco na cadeia de suprimentos não desaparece pelo simples fato de que outras agências desejam seus produtos. Enquanto o litígio avança sem calendário definido, a empresa opera com uma incerteza jurídica que pesa sobre qualquer negociação de longo prazo com o setor público.
O modelo que recusou um contrato militar chegou ao segundo lugar na App Store
Há uma mecânica de mercado neste episódio que merece atenção separada. Quando a OpenAI anunciou seu acordo com o Pentágono em 1º de março de 2026, a reação do mercado de consumo foi imediata: o Claude da Anthropic subiu ao segundo lugar na App Store. A decisão de uma empresa de assinar um contrato militar impulsionou os downloads de sua concorrente.
Isso não é anedótico. Revela que existe um segmento de usuários — provavelmente amplo — que percebe a postura da Anthropic sobre aplicações militares não como uma fraqueza comercial, mas como uma diferenciação de produto. Em termos de economia unitária, essa percepção se traduz em aquisição orgânica de usuários sem gasto em marketing. É a desmonetização do posicionamento ético convertida em vantagem competitiva.
A isso se soma o sinal enviado por Bessent e pelo presidente do Federal Reserve, Jerome Powell, que em abril instaram os principais bancos do país a testarem o Mythos, o novo modelo da Anthropic. Quando os dois funcionários financeiros mais influentes do país recomendam ativamente uma tecnologia específica ao setor bancário, estão traçando uma rota de adoção que não depende de contratos de defesa. O mercado financeiro, com seus requisitos de conformidade regulatória e sensibilidade aos riscos de reputação, pode se revelar tão ou mais lucrativo do que o setor militar — e com muito menos fricção regulatória.
O que está ocorrendo, visto a partir da lógica das fases tecnológicas, é uma transição acelerada da fase de Decepção para a fase de Disrupção no mercado de IA governamental. Durante anos, os modelos de linguagem prometeram transformar a administração pública sem demonstrá-lo de forma tangível. O conflito entre a Anthropic e o Pentágono, paradoxalmente, acelerou a clarificação: quais agências estão prontas para integrar IA de forma responsável e quais continuam presas em esquemas de aquisição pensados para hardware militar convencional.
A fratura interna que nenhum CEO deveria ignorar
Para qualquer empresa que hoje negocie com governos sua incorporação em infraestrutura crítica, o caso Anthropic oferece um padrão que se repetirá. As instituições governamentais não são monolíticas; são coalizões de agências com incentivos, orçamentos e culturas organizacionais distintas. Tratar um governo como um cliente unitário é o primeiro erro de design estratégico.
A Anthropic gerenciou essa complexidade com uma precisão que merece análise. Enquanto o litígio com o Pentágono avançava, a empresa manteve ativos seus canais de comunicação com outros ramos do governo — não como uma concessão tática, mas como uma postura estrutural. Clark o confirmou explicitamente ao declarar que a disputa não interromperia os briefings da empresa ao governo sobre seus modelos. Essa distinção — entre o contrato e a conversa — é o que preservou o capital diplomático necessário para que, em 17 de abril, acontecesse a reunião com Wiles e Bessent.
O risco que permanece, e que nenhuma reunião produtiva resolve por si só, é a assimetria de poder no litígio. O Departamento de Defesa administra o maior orçamento de aquisição tecnológica do planeta. Uma empresa privada, por mais sólida que seja sua posição técnica e sua legitimidade perante outras agências, enfrenta custos legais, atrasos e pressão institucional que podem corroer sua posição negociadora ao longo do tempo.
As PME que acompanham esse episódio à distância deveriam resistir à tentação de tratá-lo como um drama corporativo exclusivo das grandes empresas de tecnologia. O padrão que está sendo estabelecido — como os governos fragmentados respondem a fornecedores de IA que impõem limites éticos — definirá as condições de mercado para toda uma geração de empresas que buscam contratos públicos nos próximos anos. A questão não é se sua empresa enfrentará essa tensão, mas se estará preparada para navegá-la com a mesma precisão estrutural que a Anthropic demonstrou até agora.










