A corrida pela IA deixou de ser software: agora é vencida com eletricidade e concreto
Por anos, a narrativa da IA foi contada como uma guerra de modelos: quem treinava melhor, quem lançava primeiro, quem tinha o talento. Essa etapa está se tornando insuficiente. Os números que emergem para 2026 reescrevem o mapa competitivo com uma brutalidade própria de indústrias pesadas: Meta, Microsoft, Alphabet, Amazon e Oracle devem comprometer entre 660 e 690 bilhões de dólares em capex para infraestrutura de IA, quase o dobro de 2025, segundo o levantamento da TechCrunch. E, em paralelo, Jensen Huang projeta uma ordem de magnitude ainda maior: 3 a 4 trilhões de dólares em investimento total em infraestrutura de IA até o final da década.
O detalhe que incomoda muitos executivos é que esse salto não se deve a uma “aposta no futuro” etérea. Está sendo impulsionado por fricções presentes: capacidade de data centers, disponibilidade de GPUs e, acima de tudo, energia. A Microsoft, por exemplo, carrega um dado que funciona como termômetro do mercado: 80 bilhões de dólares em pedidos pendentes no Azure devido a restrições de energia. O gargalo não está mais no roadmap de produto, mas na rede elétrica e na capacidade de construção.
O novo balanço geral da IA: capex massivo e demanda que não se atende
A primeira mudança estrutural é contábil e estratégica ao mesmo tempo. O que está sendo financiado não é apenas “computação”, mas capacidade industrial: terrenos, subestações, contratos energéticos, resfriamento e data centers projetados para cargas de IA. A TechCrunch descreve como os grandes jogadores estão se movimentando com cifras que antes eram associadas a ciclos de infraestrutura pública.
As diretrizes de investimento para 2026 delineiam o tamanho da mudança: Amazon projeta 200 bilhões de dólares (a partir de 131 bilhões em 2025), Alphabet entre 175 e 185 bilhões (a partir de 91 bilhões), Meta entre 115 e 135 bilhões (a partir de 71 bilhões), Microsoft a caminho de 120 bilhões ou mais, e Oracle a 50 bilhões, um salto de 136% sobre 2025. Essas cifras, juntas, formam a faixa agregada de 660 a 690 bilhões.
Por trás do total, há uma mensagem operacional: os hyperscalers estão aceitando que, por um período, a IA é gerida como uma indústria onde o vencedor é quem consegue converter liquidez em capacidade física utilizável antes dos outros. Nesse contexto, o “time to market” é medido em megawatts habilitados, não em sprints.
Essa virada traz implicações financeiras inevitáveis. O capex se torna uma alavanca de posicionamento, mas também uma fonte de pressão: se a monetização da IA não acompanhar, o ativo fica parado, depreciando e competindo por energia com outros usos. Por enquanto, o mercado parece estar validando a tese da escassez: a sinalização da Microsoft sobre backlogs por energia funciona como evidência de que a demanda excede a oferta disponível.
Data centers como produto: o cliente compra certeza, não “modelos”
Interessa-me observar essa corrida sob uma perspectiva do comportamento do consumidor, porque o “cliente” dessa infraestrutura não é apenas o usuário final de um chatbot. O cliente relevante é aquele que paga: empresas que precisam integrar IA em operações, atendimento, programação, marketing e análise; e que hoje “contratam” um resultado muito específico: certeza de computação.
Em 2024 ou 2025, muitas conversas comerciais sobre IA eram resolvidas com demonstrações e promessas de produtividade. Em 2026, a diferença está se transferindo para algo mais prosaico: disponibilidade garantida. Quando um fornecedor acumula pedidos sem poder atendê-los (o backlog do Azure), o cliente corporativo aprende uma lição pragmática: o risco agora não é apenas “se o modelo funciona”, mas se há capacidade para executá-lo quando necessário.
Nesse contexto, surge uma inovação menos glamorosa, mas mais determinante: transformar infraestruturas em uma proposta de valor explícita. Projetos como Hyperion da Meta — um local de 2.250 acres na Louisiana, com cerca de 10 bilhões de dólares e escalável para 5GW, com planos relacionados a uma usina nuclear conforme relatado — não são um capricho de engenharia. São uma tentativa de empacotar o mais escasso como “produto”: energia mais computação.
E o caso Stargate leva essa lógica ao extremo. A joint venture de OpenAI, SoftBank, Oracle e MGX, anunciada com o respaldo da administração Trump, mira 500 bilhões de dólares até 2029, com um desdobramento inicial de 100 bilhões e planejamento de 7GW em cinco locais no Texas, Novo México e Ohio (até setembro de 2025), além de mais de 400 bilhões comprometidos nos primeiros três anos. Isso já não parece uma ampliação incremental da nuvem; parece a construção de uma nova camada industrial.
Em termos de consumidor corporativo, o padrão é claro: está-se pagando por contínua operação. Quando a IA se torna um componente de processos críticos, a interrupção por falta de capacidade deixa de ser tolerável. A compra se desloca de “software inteligente” para “serviço industrial confiável”.
A luta pela cadeia de suprimento: Nvidia, acordos de GPUs e alianças que fixam dependência
A outra dimensão do poder não é o data center em si, mas a cadeia de suprimentos que o torna útil. A TechCrunch reúne acordos que, pelo tamanho, parecem mais próximos de contratos de commodities do que de alianças tecnológicas.
A OpenAI, por exemplo, aparece vinculada a um acordo de 100 bilhões de dólares em GPUs com a Nvidia, além de um esquema de GPUs por ações com a AMD. A Nvidia, por sua vez, teria refletido uma estrutura similar com a xAI. Paralelamente, é importante lembrar que a Microsoft investiu quase 14 bilhões de dólares na OpenAI desde 2019, começando com um pacto de 1 bilhão que incluía exclusividade no Azure (mais tarde relaxada em um enfoque multicloud com “direito de primeira negativa”). E Amazon investiu 8 bilhões de dólares na Anthropic, ajustando o hardware para suas necessidades.
Financeiramente, isso pode ser interpretado como uma tentativa de reduzir a volatilidade em três frentes:
1) Assegurar suprimento: quem não fixa GPUs fica à mercê de filas e preços.
2) Assegurar demanda: quem financia ou se integra com um laboratório relevante garante cargas de trabalho que preencham o capex.
3) Converter infraestrutura em lock-in: não necessariamente por cláusulas de exclusividade, mas por custos de mudança operacionais.
O detalhe importante é que o poder de negociação está mudando. Quando há escassez, o fornecedor de insumos (GPUs, energia, capacidade de construção) captura mais valor. A nuvem compete, mas também depende. Por isso, o comentário de Huang sobre os gargalos energéticos é tão relevante: o limitador mais duro não é o algoritmo, é o acesso à energia elétrica.
Esse reordenamento também explica o crescimento atípico da Oracle na história: seu objetivo de 50 bilhões de dólares em capex e suas 523 bilhões em obrigações de desempenho restantes sugerem um reposicionamento para capturar demanda de infraestrutura em escala, impulsionado por seu papel no Stargate.
O risco silencioso: infraestrutura sobredimensionada e experiência de usuário degradada
Quando uma indústria entra em modo “construir primeiro, monetizar depois”, o risco não é sempre o fracasso tecnológico. Muitas vezes, é a desconexão com o trabalho real do cliente.
Aqui há uma tensão que me parece central: o gasto agregado de 660 a 690 bilhões convive com um fato destacado no briefing: as empresas puras de IA mostram crescimento rápido de receitas, mas ainda representam uma fração do desembolso total em infraestrutura. Esse desbalanceamento não implica que o investimento seja irracional; implica que o modelo de captura de valor ainda está em consolidação.
No caminho, aparecem dois perigos operacionais:
- Sobreconstrução de capacidade “premium”: se a infraestrutura é projetada para o caso mais extremo (treinamento massivo, latências mínimas, redundâncias máximas), o custo unitário pode subir. Isso abre espaço para alternativas mais simples e baratas em segmentos que apenas precisam de inferência básica ou fluxos limitados.
- Degradação do serviço por congestionamento: o backlog do Azure por energia é a versão corporativa de uma má experiência do usuário. No mundo corporativo, a frustração não se expressa em avaliações; se expressa em migrações parciais, arquiteturas híbridas e compras redundantes para reduzir a dependência.
A sinalização do mercado é que os grandes estão apostando que “a IA consumirá toda a capacidade disponível”, como sintetiza a análise citada do Futurum Group sobre a transição de ~380 bilhões em 2025 para 660–690 bilhões em 2026. Se essa hipótese se concretizar, o capex se justifica. Se se concretizar parcialmente, o vencedor será quem tiver construído com maior flexibilidade contratual e energética.
Por isso, a discussão pública que se aproxima — um encontro na Casa Branca em março de 2026 com Amazon, Google, Meta, Microsoft, xAI, Oracle e OpenAI, segundo o briefing — tem leitura econômica: habilitar energia, permissões e construção define a futura quota de mercado tanto quanto o melhor modelo.
A direção estratégica já está assinalada: a IA será vendida como capacidade garantida
A história de 2026 mostra que o “produto” decisivo se deslocou. A IA continuará competindo em qualidade de modelos, sim, mas o poder econômico está se acumulando em quem controla o gargalo físico: data centers, GPUs e eletricidade.
Para um CEO ou CFO, a implicação prática é que a conversa sobre IA deixa de ser apenas uma discussão de software e passa a ser uma discussão sobre estrutura de custos, dependência de fornecedores e risco operacional. No curto prazo, a escala favorece a quem pode absorver capex massivo. No médio, o espaço competitivo se abrirá para propostas que entreguem IA suficiente a um custo menor e com menos requisitos de infraestrutura, especialmente onde o cliente não precisa do máximo desempenho.
O padrão de comportamento do consumidor corporativo que essa corrida revela é contundente: as empresas não estão contratando “IA” como conceito; estão contratando continuidade e certeza para transformar processos sem que a infraestrutura falhe no momento crítico.










