{"version":"1.0","type":"agent_native_article","locale":"pt","slug":"anthropic-disse-nao-ao-pentagono-e-agora-enfrenta-as-consequencias-mmw65tzz","title":"Anthropic disse não ao Pentágono e agora enfrenta as consequências","primary_category":"ai","author":{"name":"Simón Arce","slug":"simon-arce"},"published_at":"2026-03-18T14:53:17.838Z","total_votes":75,"comment_count":0,"has_map":false,"urls":{"human":"https://sustainabl.net/pt/articulo/anthropic-disse-nao-ao-pentagono-e-agora-enfrenta-as-consequencias-mmw65tzz","agent":"https://sustainabl.net/agent-native/pt/articulo/anthropic-disse-nao-ao-pentagono-e-agora-enfrenta-as-consequencias-mmw65tzz"},"summary":{"one_line":"O Departamento de Defesa dos EUA sancionou a Anthropic por se recusar a retirar os limites éticos de sua IA. Esta disputa revela o controle sobre a IA em tempos de guerra.","core_question":"O Departamento de Defesa dos EUA sancionou a Anthropic por se recusar a retirar os limites éticos de sua IA. Esta disputa revela o controle sobre a IA em tempos de guerra.","main_thesis":"O Departamento de Defesa dos EUA sancionou a Anthropic por se recusar a retirar os limites éticos de sua IA. Esta disputa revela o controle sobre a IA em tempos de guerra."},"content_markdown":"## Anthropic disse não ao Pentágono e agora enfrenta as consequências\n\nNo dia 4 de março de 2026, o Departamento de Defesa dos EUA classificou a Anthropic como um \"risco para a cadeia de suprimento de segurança nacional\". No dia seguinte, Dario Amodei confirmou que a empresa levaria o caso aos tribunais. Até o dia 10 de março, a ação estava protocolada no Tribunal do Distrito Norte da Califórnia, com a Microsoft apresentando um escrito de apoio, enquanto mais de mil funcionários da OpenAI e do Google assinavam uma declaração conjunta rejeitando as sanções.\n\nA velocidade do escalonamento revela algo que os comunicados de imprensa não mencionam: esta não é uma disputa sobre cláusulas contratuais. É o primeiro teste real de força entre o Estado e o setor privado de IA sobre quem tem a autoridade final para decidir o que um modelo de inteligência artificial pode fazer quando a ordem vem de um uniforme militar.\n\n## O contrato que acendeu a mecha\n\nEm julho de 2025, a Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. O acordo permitia o uso do Claude em operações classificadas, incluindo o rastreamento de imigrantes para o Serviços de Imigração e Controle de Aduanas e operações de captura de alvos de alto valor. Porém, o contrato incluía duas restrições explícitas: Claude não poderia tomar decisões letais de maneira autônoma sem aprovação humana, e não poderia executar vigilância massiva e indiscriminada sobre cidadãos americanos.\n\nEssas restrições não eram uma letra miúda nem uma concessão de última hora. Eram o cerne da proposta de valor que a Anthropic construiu desde sua fundação em 2021, quando Dario Amodei e Daniela Amodei saíram da OpenAI para apostar em um desenvolvimento de IA que priorizasse a segurança em relação à velocidade comercial. O Pentágono sabia disso ao assinar o contrato e o aceitou.\n\nO que mudou foi a administração. Em janeiro de 2026, o secretário de Defesa, Pete Hegseth, emitiu um memorando sob a estratégia denominada \"AI-First Combat Power\", que exigia que todos os contratos de IA do Departamento de Defesa incluíssem cláusulas de \"qualquer uso legal\" dentro de 180 dias. O memorando colidiu diretamente com o que a Anthropic havia acordado. No dia 24 de fevereiro, Hegseth se reuniu pessoalmente com Amodei e o advertiu que, se não retirasse as restrições até a próxima sexta-feira, invocaria o Título I da Lei de Produção de Defesa para forçar o cumprimento ou exigir o re-treinamento do modelo.\n\nAmodei respondeu com três palavras que, no mundo corporativo, costumam ser caras: \"Não podemos cumprir\".\n\n## O que a Lei de Produção de Defesa não pode comprar\n\nA ameaça de invocar o Título I da Lei de Produção de Defesa merece uma análise específica, pois revela a fragilidade do argumento governamental. Essa lei foi concebida para garantir o acesso prioritário do Estado a recursos produtivos durante crises: aço, semicondutores, equipamentos médicos. Sua aplicação histórica tem sido sobre bens físicos com cadeias de produção rastreáveis.\n\nAplicá-la aos princípios de design de um modelo de linguagem é um salto legal de proporções consideráveis. Como destaca a análise do Lawfare citada na cobertura do caso, o Título I garante acesso prioritário, mas complicaria imensamente a exigência jurídica pela eliminação de salvaguardas incorporadas ao modelo ou seu re-treinamento. A analogia com uma siderúrgica não se sustenta. Um governo pode ordenar a uma fábrica que produza aço para torpedos em vez de vigas de construção. Ordenar a uma empresa que modifique os valores éticos codificados em um modelo de IA é um território legal sem precedentes claros.\n\nEssa ambiguidade é, paradoxalmente, o instrumento mais eficaz do Departamento de Defesa. Como o próprio Lawfare alerta: a ameaça de invocar uma lei cujas implicações ninguém compreende completamente pode ser suficiente para obter a capitulação sem necessidade de usá-la. A incerteza gera pressão. E a pressão, em empresas com investidores e contratos em risco, geralmente funciona melhor do que os decretos.\n\nA Anthropic escolheu o único caminho que elimina essa ambiguidade: os tribunais.\n\n## O mapa de lealdades e o que revela sobre o setor\n\nO mais significativo deste episódio não é a ação judicial em si, mas quem se alinhou com cada parte e a velocidade desse alinhamento.\n\nA Microsoft apresentou um apoio no mesmo dia em que a Anthropic protocolou a ação, argumentando que a IA não deveria ser usada para vigilância doméstica em grande escala nem para iniciar guerras sem controle humano. Jeff Dean e mais de quarenta figuras da indústria assinaram uma declaração advertindo que sancionar uma empresa de IA estadunidense poderia prejudicar gravemente a competitividade científica e industrial do país. O Information Technology Industry Council, que representa Nvidia, Amazon, Apple e OpenAI, alertou que as sanções poderiam minar o acesso do próprio governo aos melhores produtos e serviços.\n\nDo outro lado, empresas como a xAI de Elon Musk aceitaram os termos do Pentágono para trabalho classificado, consolidando uma fissura visível no setor entre aqueles que consideram que a postura ética tem um custo de oportunidade inaceitável e aqueles que acreditam que ceder é o início de uma ladeira sem retorno.\n\nEssa fissura importa porque expõe a lógica subjacente a cada modelo de negócio. Uma empresa que depende criticamente de contratos governamentais para sustentar seu crescimento tem pouco espaço para manter posições que irritem o maior cliente do mercado. Uma empresa que construiu sua diferenciação precisamente sobre as restrições que o governo quer eliminar enfrenta o problema inverso: ceder destruiria o ativo que a torna valiosa.\n\nA Anthropic não está defendendo princípios abstratos. Está defendendo a única vantagem competitiva que a separa de seus concorrentes em um mercado onde os modelos técnicos convergem a cada trimestre.\n\n## O precedente que ninguém quer nomear\n\nSe o Departamento de Defesa ganhar este caso, o efeito sobre a indústria não será imediato nem dramático. Será gradual e sistêmico. Cada empresa que negociar um contrato federal de IA saberá que qualquer restrição de uso pode ser proclamada um risco à segurança nacional em um momento de tensão política. Essa certeza altera os incentivos de design mesmo antes de qualquer acordo ser assinado.\n\nO Information Technology Industry Council articulou isso com precisão técnica: as sanções poderiam limitar o acesso do governo aos melhores produtos disponíveis. A paradoxa é que o Estado, ao pressionar para eliminar restrições, pode acabar tendo acesso a modelos mais obedientes, mas menos capazes, desenvolvidos por empresas que aprenderam a construir sem limites porque esses limites são politicamente inconvenientes.\n\nO tribunal do Distrito Norte da Califórnia terá que resolver uma pergunta que o Congresso ainda não respondeu: se uma empresa privada pode estabelecer contratualmente restrições de uso sobre sua tecnologia quando esse uso envolve decisões letais, ou se a doutrina de segurança nacional pode dissolver qualquer acordo privado quando o considera inconveniente.\n\nEspecialistas em direito administrativo citados na cobertura do caso sugerem que a solução estrutural não está nos tribunais, mas no Congresso, que até agora não estabeleceu um marco legislativo específico para o uso militar de sistemas de IA. Enquanto esse vazio persistir, o Pentágono preenche o espaço com memorandos, e as empresas respondem com ações judiciais.\n\nO que a Anthropic colocou na mesa no dia 10 de março de 2026 não é apenas seu contrato de 200 milhões de dólares. É a pergunta se uma organização pode sustentar um propósito fundacional quando seu cliente mais poderoso decide que esse propósito é um obstáculo. A cultura de toda organização é o resultado natural de perseguir esse propósito com consequência, ou, por outro lado, o sintoma inevitável de todas as vezes em que a liderança preferiu o contrato sobre a convicção.","article_map":null}