CoreWeave vence a corrida pelo processamento de inferência que os gigantes ignoraram
No dia 10 de abril de 2026, a CoreWeave anunciou um contrato de vários anos com a Anthropic para fornecer capacidade de GPUs Nvidia em centros de dados nos Estados Unidos, especificamente para cargas de produção que alimentam os modelos Claude. Os termos financeiros não foram divulgados, mas a reação do mercado foi impressionante: as ações da CoreWeave subiram mais de 10% no mesmo dia.
Isso não foi o mais revelador do dia. O mais revelador foi que esse anúncio chegou apenas 24 horas depois que a Meta confirmou uma ampliação de seu compromisso com a CoreWeave por mais 21 bilhões de dólares, elevando o valor total dessa relação para aproximadamente 35 bilhões. Dois dos dez principais desenvolvedores de modelos de IA do planeta apostando, com apenas um dia de diferença, na mesma infraestrutura. Para uma empresa que, em 2025, faturou 5,13 bilhões de dólares com um crescimento de 168% em relação ao ano anterior, isso não é apenas tração; é um sinal de que a CoreWeave construiu algo que as hipernuvens não sabiam ou não quiseram construir.
O nicho que Amazon, Microsoft e Google deixaram livre
Existe uma distinção técnica que durante anos passou despercebida nas salas de estratégia das grandes nuvens: treinar um modelo de IA é um problema de computação massiva e relativamente tolerante à latência; executá-lo em produção em escala empresarial é um problema totalmente diferente. A inferência, que é o processo pelo qual um modelo como Claude responde a milhões de usuários simultâneos, exige baixa latência, alta disponibilidade e uma arquitetura de hardware especificamente otimizada para esse padrão de uso.
AWS, Azure e Google Cloud construíram suas ofertas de GPU principalmente em torno do treinamento, onde os grandes clientes assinam contratos longos e consomem blocos de computação de forma previsível. Esse mercado tem margens aceitáveis e uma dinâmica comercial conhecida. A inferência em produção, por outro lado, é mais imprevisível, mais exigente em termos de configuração e requer uma especialização operacional que as hipernuvens tratavam como um caso de uso secundário. A CoreWeave se instalou exatamente nesse espaço.
Hoje, opera 32 centros de dados com mais de 250.000 GPUs e 1,3 gigawatts de capacidade elétrica contratada. Sua carteira de clientes inclui nove dos dez principais desenvolvedores de modelos de IA do mundo: Microsoft, Meta, OpenAI, Mistral, Cohere, IBM e Nvidia, entre outros. A soma desses contratos resulta em um backlog de 66 bilhões de dólares e uma previsão de receita para 2026 que ultrapassa 12 bilhões. Esses não são números de uma empresa que encontrou um nicho marginal: são os números de uma empresa que definiu uma categoria.
Por que a Anthropic escolheu sair das nuvens tradicionais
A decisão da Anthropic de assinar com a CoreWeave diz algo específico sobre como os desenvolvedores de modelos maduros estão repensando sua relação com a infraestrutura. A Anthropic já havia comprometido 100 milhões de dólares para desenvolver sua rede de parceiros empresariais em torno de Claude. Isso implica que o modelo precisa funcionar com consistência, em baixa latência e em escala, para clientes corporativos que não toleram degradações de desempenho.
As grandes nuvens oferecem esse processamento, mas dentro de plataformas projetadas para serem horizontais, onde o cliente de IA compete por recursos com o cliente de bases de dados relacionais, o cliente de streaming de vídeo e o cliente de processamento de folha de pagamento. A CoreWeave oferece infraestrutura projetada exclusivamente para cargas de trabalho de IA. Essa especificidade não é um argumento de marketing: resulta em métricas de desempenho que importam quando um modelo está respondendo a 100.000 solicitações simultâneas em uma aplicação empresarial.
O acordo com a CoreWeave também permite à Anthropic implementar o processamento de forma escalonada, com opções de expansão, o que proporciona flexibilidade sem comprometer a capacidade base necessária para seus clientes atuais. Em um mercado onde a escassez de GPUs Nvidia continua a ser estrutural, garantir esse acesso através de um fornecedor especializado reduz um risco operacional concreto.
O porta-voz da CoreWeave o formulou de forma precisa para um comunicado corporativo: "A IA não se trata mais apenas de infraestrutura, mas das plataformas que transformam modelos em impacto real". Essa frase descreve exatamente o trabalho que a Anthropic precisava contratar: não GPUs genéricas, mas a capacidade de colocar Claude para trabalhar em condições de produção sem que o desempenho colapse.
O risco estrutural que dois acordos não resolvem
O sucesso da CoreWeave possui uma vulnerabilidade que os investidores identificaram desde sua estreia na bolsa e que o mercado continua a monitorar de perto: a Microsoft representou aproximadamente 67% de sua receita em 2025. Essa concentração em um único cliente torna qualquer mudança na relação comercial com a Microsoft um risco sistêmico para a empresa.
Os acordos com a Meta e a Anthropic em 48 horas são a evidência mais direta de que a CoreWeave está executando uma estratégia deliberada de diversificação. Mas o trabalho está longe de ser concluído. Se a Meta agora representa uma porção significativa do backlog plurianual, a CoreWeave terá trocado a concentração em um cliente pela concentração em dois. O risco diminui, mas não desaparece.
Adicionalmente, há um fator de execução que os números projetados não capturam: manter 32 centros de dados, adicionar nova capacidade para atender a 66 bilhões em compromissos contratados e fazer isso enquanto os custos de energia e construção continuam voláteis, exige uma precisão operacional que poucas empresas desse tamanho e velocidade de crescimento demonstraram de forma contínua. A previsão de mais de 12 bilhões para 2026 implica mais do que dobrar as receitas em um único ano. Isso não é impossível dado o backlog existente, mas exige que a cadeia de suprimento de hardware, contratos de energia e construção de infraestrutura funcione sem fricções significativas.
O modelo da CoreWeave transforma custos variáveis de computação em compromissos fixos de longo prazo para seus clientes, o que protege suas receitas futuras, mas transfere a pressão de execução para dentro. Se um centro de dados se atrasar ou uma compra de GPUs se demorar por restrições de oferta da Nvidia, o impacto não será absorvido pelo cliente: será absorvido pela CoreWeave.
O trabalho contratado por trás do acordo
A trajetória da CoreWeave, desde a mineração de Ethereum até fornecedora de computação para nove dos dez principais desenvolvedores de IA do mundo, é relevante não porque seja uma história de resiliência corporativa, mas porque ilustra como uma empresa pode redefinir seu propósito em torno de um problema específico do cliente que ninguém mais estava resolvendo bem.
O acordo com a Anthropic não confirma que a CoreWeave possui boa tecnologia. Confirma que identificou o trabalho concreto que a Anthropic, Meta, OpenAI e outros precisavam contratar: não capacidade de computação genérica, mas infraestrutura de inferência que faça com que os modelos funcionem de forma confiável quando os usuários os utilizam, não quando os engenheiros os testam. Essa distinção, aparentemente técnica, é na verdade a separação entre um fornecedor de commodities e uma empresa com poder de fixação de preços em um mercado onde a demanda supera estruturalmente a oferta.
O sucesso deste modelo demonstra que o trabalho que os grandes desenvolvedores de IA estavam contratando nunca foi acesso a GPUs: foi a garantia de que seus modelos teriam desempenho em produção sem que a infraestrutura se tornasse o ponto de estrangulamento do negócio.









