A guerra pela IA militar já é uma guerra de governaça
A semana de 27 de fevereiro de 2026 deixou uma cena que, vista da sala de reuniões, é mais perturbadora do que espetacular. De um lado, Sam Altman anunciou que a OpenAI fechou um acordo para implantar modelos em redes classificadas do Pentágono. Por outro, a Casa Branca ordenou que as agências federais retirassem a tecnologia da Anthropic em seis meses, e o Secretário de Guerra Pete Hegseth qualificou a empresa como um “risco de cadeia de suprimento para a Segurança Nacional”, proibindo que contratantes e fornecedores militares mantivessem atividade comercial com a Anthropic. Segundo relatos, a Anthropic anunciou sua intenção de processar.
Paralelamente, uma parte do talento técnico expressou dissenso publicamente. Mais de 300 funcionários do Google e mais de 60 da OpenAI assinaram uma carta pedindo a seus líderes que apoiassem os limites defendidos pela Anthropic, particularmente a proibição da vigilância em massa doméstica e a exigência de controle humano sobre sistemas de armas autônomas.
Se olharmos apenas o título, construímos a narrativa habitual: uma empresa “se posiciona”, outra “negocia”, um governo “impõe”. Na prática, o que é relevante é outro aspecto: o Estado não só compra IA, mas também tenta comprar obediência institucional. E a indústria não apenas vende modelos, vende sua capacidade de sustentar uma posição quando os incentivos se tornam punitivos.
Quando o cliente também é regulador e pune como competidor
A decisão política de tratar a Anthropic como risco de cadeia de suprimento tem um efeito que vai além da empresa. No mundo das compras complexas, a pior mensagem para o mercado não é “não te compro”, mas sim “se você trabalhar com eles, não trabalhará comigo”. De acordo com o briefing, Hegseth afirmou que nenhum contratante, fornecedor ou parceiro que negocie com o exército americano pode manter atividades comerciais com a Anthropic. Isso não é apenas uma preferência de abastecimento; é um sinal de alinhamento obrigatório.
A consequência imediata é óbvia: há uma reorganização dos incentivos na cadeia de valor de defesa, desde integradores até provedores de nuvem e consultorias de sistemas. O custo não é pago apenas pelo fornecedor bloqueado; é arcado por qualquer ator que fique preso na ambiguidade. Nesse ambiente, muitas empresas deixam de tomar decisões com base em análises de risco operacional e começam a fazê-lo com base em controle de danos políticos.
Aqui surge uma tensão que os executivos de alto escalão costumam subestimar. O “cliente soberano” possui poder de compra, poder normativo e capacidade de reputação pública. Em setores como defesa, esse triângulo de poder altera a governança interna das empresas de tecnologia: a função de vendas pode arrastar os departamentos de legal, compliance e segurança para um quadro onde o que importa deixa de ser o design do produto e passa a ser a interpretabilidade política do contrato.
A mensagem de Trump, citada na cobertura, explicitou essa dimensão: criticou a liderança da Anthropic e ameaçou usar “todo o poder da Presidência” para forçar a cooperação durante a transição. Independente da legalidade final que possa ser discutida nos tribunais, a mecânica de gestão já se manifestou. O Estado mostrou que pode transformar uma divergência de critérios em um risco existencial.
Este episódio também revaloriza uma pergunta incômoda para os conselhos de administração de empresas de IA: a dependência de um único comprador dominante torna qualquer divergência um evento de sobrevivência. A diversificação não é apenas financeira; é também política.
Duas linhas vermelhas e um problema de linguagem que ninguém quis resolver
O cerne do conflito, conforme descrito, reside em duas restrições que a Anthropic defendeu: não permitir o uso para vigilância em massa de cidadãos americanos e exigir controle humano sobre armas autônomas. O Pentágono teria solicitado “acesso irrestrito” para “todos os propósitos legais” e, segundo o Axios citado no briefing, houve menção à ameaça de invocar o Defense Production Act.
Na superfície, ambos os lados afirmam defender princípios semelhantes. Altman escreveu que a OpenAI também mantém como premissas a proibição da vigilância em massa e a responsabilidade humana no uso da força, e que o Departamento de Guerra “se alinha” com esses princípios, os “consagra na lei e na política” e foram integrados ao acordo. Essa frase é cirúrgica do ponto de vista contratual: desloca o centro de gravidade da ética corporativa para o marco legal existente.
Esse deslocamento define vencedores. Se a discussão é formulada como “minha política interna versus sua necessidade operacional”, a empresa se expõe como um ator político. Se for formulada como “cumprimos a lei e suas políticas já vigentes”, a empresa se apresenta como um fornecedor responsável e executor de um padrão estatal. O mesmo limite pode ser visto como rebeldia ou como cumprimento, dependendo de como é redigido e quem controla o texto.
Do que eu vejo como a conversa ausente não é entre empresas e governo, mas dentro de cada empresa. As organizações de IA vêm tentando manter dois discursos simultâneos: o de segurança para o público e o de disponibilidade para grandes compradores. Quando chega o momento de traduzir “segurança” em cláusulas verificáveis, surgem fricções que não são técnicas. Elas são de poder.
A Anthropic afirmou, segundo o briefing, que essas duas restrições não afetaram “uma única missão” até agora. Essa afirmação busca desativar o argumento operacional. O problema é que a disputa já não é operacional, mas simbólica. E quando um conflito se torna simbólico, o espaço para compromissos técnicos se estreita.
O acordo da OpenAI como produto político e vantagem competitiva
O anúncio de Altman sobre um acordo para implantar modelos em redes classificadas reconfigura o tabuleiro. Não pelo detalhe técnico, que neste caso não foi descrito em profundidade, mas pela sinalização competitiva. Em mercados onde o comprador pode fechar portas a outros, o acesso a redes classificadas é uma vantagem que se assemelha menos a um “contrato” e mais a uma “licença”.
Altman, segundo relatos, acrescentou dois elementos que merecem atenção executiva. Primeiro, que os limites de uso refletem legislação e política existentes, e não novas regras criadas pela empresa. Segundo, que a OpenAI operaria em redes de nuvem e não em cenários de edge, como armas autônomas. Esse segundo ponto, lido sem romantismo, delimita responsabilidades: reduz a superfície de risco técnico e moral e diminui a probabilidade de que o produto termine em um contexto onde o controle humano seja uma ficção.
Ao mesmo tempo, não é prudente narrar isso como virtude ou defeito pessoal. A pergunta estratégica é que tipo de empresa se constrói quando o acesso a contratos depende da demonstração de alinhamento com uma administração. Em um ciclo político diferente, as mesmas cláusulas podem ser reinterpretadas como insuficientes ou excessivas. A companhia que ancla sua narrativa apenas em “estar do lado certo do poder” se torna frágil diante da próxima mudança.
Em termos de indústria, o precedente inquietante é a assimetria criada pela lista negra. Se um ator é punido, o restante recebe um convite tácito para capturar quota de mercado. Esse convite não precisa ser explícito. Funciona porque o medo é um incentivo mais rápido do que o planejamento.
Talento em rebeldia e o custo de governar por memorandos
O detalhe mais relevante para qualquer CEO não está nos comunicados oficiais, mas na carta assinada por funcionários. Mais de 300 empregados do Google e mais de 60 da OpenAI pediram aos seus líderes que apoiassem a Anthropic e resistissem às exigências do Pentágono. A carta, segundo o briefing, apontava que o governo tenta “dividir” cada empresa com o temor de que a outra ceda.
Quando funcionários de empresas rivais coordenam um gesto desse tipo, a mensagem é clara: o talento percebe que a governança corporativa está respondendo mais a pressões externas do que a compromissos internos. E o talento, em IA, não é uma função de suporte. É parte do motor de produção.
Isso expõe uma falha clássica de maturidade organizacional. As empresas acreditam que podem governar dilemas de alto risco com documentos internos, comitês e frases elaboradas. Porém, quando o dilema entra na geopolítica, o governo deixa de ser um stakeholder e se torna um ator que define o quadro de possibilidades. A cultura se prova ali, não nos valores publicados.
Jeff Dean, segundo a cobertura, escreveu que a vigilância em massa viola a Quarta Emenda e tem um efeito inibidor sobre a liberdade de expressão, além de ser suscetível a abusos políticos ou discriminatórios. Esse comentário, emitido como indivíduo, mostra outra tensão: líderes técnicos são empurrados a se manifestar em canais pessoais porque a empresa, por prudência, opta pelo silêncio. A prudência pode ser estratégica, mas também pode ser uma forma de esconder a falta de alinhamento interno.
O custo operacional aparece depois. Retenção, velocidade de execução e cooperação cruzada se degradam quando uma parte da organização sente que “a empresa” é apenas a fachada comercial de decisões tomadas em particular. Não é necessário uma greve. Basta a erosão da confiança.
O que resta para o C-Level é um design de poder, não um debate moral
Este episódio deixa uma lição amarga: na IA, as cláusulas de uso são instrumentos de poder. Se o Estado pode exigir “todos os propósitos legais” e punir o fornecedor que tenta manter exceções, então o mercado se move da inovação para a obediência contratual.
Para os líderes empresariais fora do setor defensivo, isso não é uma anedota estranha. É um aviso de como tecnologias de propósito geral serão governadas em setores regulados: saúde, finanças, educação, infraestruturas críticas. Qualquer indústria onde o regulador também compra ou habilita o mercado corre o risco de replicar esse padrão.
A resposta executiva que considero necessária não é indignação nem heroísmo, mas design. Projetar um portfólio de clientes que reduza a dependência política. Projetar acordos que transformem valores em controles auditáveis, e não em declarações. Projetar uma relação com o talento onde as linhas vermelhas não apareçam como moral de marketing, mas como compromissos operacionais.
Isso também exige responsabilidade executiva em sua forma mais desconfortável. Quando o ambiente se torna coercitivo, a tentação é culpar o governo, a imprensa, a “polarização”. Isso é administração por vitimismo. Um CEO sério reconhece que sua organização será medida por sua capacidade de manter coesão sob pressão, mesmo que essa coesão custe o acesso, prestígio ou receitas.
A cultura de toda organização é o resultado natural de perseguir um propósito autêntico ou o sintoma inevitável de todas as conversas difíceis que o ego do líder não permite ter.












