A frase que mais deve incomodar um CFO não é a mais ruidosa, mas sim a mais simples: mais da metade da receita da Nvidia provém de cinco grandes clientes, os chamados hyperscalers. Essa informação, divulgada na mesma semana em que a empresa anunciou US$68,1 bilhões de receita no quarto trimestre do exercício fiscal de 2025, +73% em relação ao ano anterior, é a chave para compreender o momento do mercado e entender por que Jensen Huang afirma que os investidores "entenderam errado" ao avaliar a ameaça da IA sobre as empresas de software. Não se trata de saber se a IA "mata" o software. Trata-se de quem está financiando o novo software, em que condições e com que resiliência.
Na conferência de resultados, Huang colocou o debate sobre sustentabilidade em termos claros: o mundo vinha investindo US$300–400 bilhões ao ano em computação clássica, e com a IA a necessidade de computação será "1.000 vezes maior", portanto o mundo investirá para "produzir esse token". Sua conclusão foi clara: US$700 bilhões de capex combinado projetado para 2026 entre os grandes jogadores não seria um teto, mas o começo de uma capacidade de geração de "tokens" que continuará se expandindo. Ele também mencionou uma década de construção para essa indústria. A narrativa é clara: não há retorno à computação anterior; o investimento é estrutural.
O mercado escuta essa confiança, observa o volume de capex e se pergunta sobre o final da curva. Se os cinco principais duplicarem o gasto ano após ano, chegamos a trilhões em poucos anos. Essa matemática não fecha com o fluxo de caixa livre atual, e a própria informação disponível reconhece que esses atores já estão gastando acima de seu fluxo de caixa livre e levantando dívida para financiar centros de dados. A discussão, então, não é filosófica. É sobre a estrutura de mercado e a concentração de risco.
A sustentabilidade do capex depende do “quem paga”, não do “se”
Quando o capex combinado se aproxima de US$700 bilhões em 2026, com planos como Meta de até US$135 bilhões (desde US$72 bilhões em 2025) e Google de até US$185 bilhões (desde US$91 bilhões), não estamos diante de um gasto incremental. É uma reordenação das prioridades corporativas em escala industrial. Huang apresenta isso como um “novo modo” de computar que não retrocede. Essa tese tem consistência interna: se o output econômico da IA depende de tokens gerados, e os tokens dependem de infraestrutura, o investimento se torna um pré-requisito.
Mas, a partir de uma perspectiva de gestão financeira, a sustentabilidade se decide pela distribuição do custo e do retorno, não pela inevitabilidade tecnológica. Com mais da metade da receita da Nvidia concentrada em cinco compradores, qualquer mudança de ritmo, configuração técnica ou política de compras nesse quinteto reconfigura todo o mercado. Mesmo que a demanda agregada cresça, o poder de negociação se inclina para aqueles que controlam o capex e a demanda final.
Aqui surge um ponto cego frequente: tratar a "bolha" como um fenômeno psicológico e não como um fenômeno de governança. A dependência de poucos cheques cria ciclos mais violentos. Aceleram quando os incentivos estão alinhados e freiam quando o conselho exige recompra, dividendos ou disciplina de capital. De fato, já há analistas observando o custo de oportunidade para acionistas, ao notar que esse capex é capital que não retorna em dividendos ou recompra de ações. Esse conflito não é pequeno: é a alavanca que decide se o gasto se transforma em investimento sustentado ou em um pico.
A tese de Huang pode coexistir com a preocupação do mercado. O investimento pode ser necessário e, ao mesmo tempo, estar concentrado de forma frágil. Nesse contexto, a variável crítica para 2026–2027 não é apenas quantos chips são vendidos, mas quanta dependência estratégica está sendo construída em uma cadeia onde o comprador final é um oligopólio.
Se a IA ameaça o software, também o obriga a amadurecer sua economia
A leitura superficial é que a IA "comprime" o valor do software tradicional, especialmente o modelo SaaS, porque automatiza tarefas que antes justificavam licenças e assentos. A interpretação defendida por Huang, segundo a cobertura citada, é que os mercados subestimam essa ameaça. A forma mais útil de entender isso em termos de negócios é diferente: a IA reordena o custo de produzir e operar software, e desloca o poder para quem controla computação, dados, distribuição e capacidade de iteração.
Isso não destrói automaticamente as empresas de software, mas elimina a comodidade das margens por inércia. A IA impõe uma auditoria permanente da unit economics. Se o cliente percebe que uma função se tornou “comoditizável” por um modelo, a empresa de software deve responder com uma de três saídas, todas exigentes: (1) mover-se em direção a resultados mensuráveis no negócio do cliente, (2) especializar-se em domínios onde dados, regulação ou integração criam barreiras reais, ou (3) competir em custo de operação, o que requer escala e excelência técnica.
Nessa transição, o discurso de “tokenização” de Huang é importante porque sugere um novo denominador comum para o preço do valor digital: não o assento, mas o custo de gerar trabalho computacional. Se o mercado aceitar essa métrica, o software deixará de ser vendido como promessa de produtividade e começará a ser vendido como eficiência verificável. Isso pode ser uma ameaça para quem vive de empacotar processos, e uma oportunidade para quem pode demonstrar impacto.
A contrapartida é que muitas empresas ficarão presas entre dois gigantes: hyperscalers que financiam a infraestrutura e fornecedores de chips que capturam a margem de rendimento. No meio, o software precisará de uma vantagem defensável que não seja estética. Essa é a parte que não se resolve com marketing, nem com “features”. Resolve-se com governança de produto, dados de adoção real e disciplina comercial.
A nova onda não é técnica, mas organizacional: agentes e adoção empresarial
Huang apontou que a IA agêntica alcançou um ponto de inflexão nos últimos 2 a 3 meses, e que isso abre uma nova onda de demanda. Ele também antecipou uma sequência: primeiro agentes; depois “IA física” em robótica e equipamentos industriais; e um crescimento do uso empresarial que, segundo sua leitura, “abre compuertas”. Em termos de infraestrutura, essa narrativa serve para justificar por que o capex não se esgota em um ciclo de treinamento de modelos, mas se expande para inferência e operação contínua.
Sob minha perspectiva de capital social, a mudança é ainda mais desconfortável para as empresas: os agentes deslocam o trabalho para a periferia da organização. A produtividade deixa de ser um projeto da área de sistemas e passa a ser uma capacidade distribuída: operações, finanças, vendas, serviço, compliance. Isso aumenta o valor de redes internas horizontais onde a informação circula e o aprendizado se torna coletivo. Também penaliza estruturas rígidas onde o conhecimento se concentra em poucos papéis.
Aqui surge o risco de automatizar a desigualdade sem perceber. Se o design de agentes e fluxos é feito apenas a partir de uma mesa homogênea, os casos de uso priorizados tendem a refletir a experiência de quem decide, não a realidade de quem executa. O resultado típico não é um escândalo ético, mas uma falha de escala: o agente funciona em demonstração e falha na operação porque não contempla exceções, linguagem real dos usuários, fricções no terreno, nem incentivos das equipes.
A adoção empresarial que Huang descreve como crescente não é conquistada com promessas de “transformação”. É conquistada com implementação que entende a organização como uma rede viva. As equipes mais diversas em origem e função costumam detectar antes os pontos cegos operacionais. Não por virtude moral, mas por cobertura de realidade.
O custo oculto da homogeneidade: fragilidade estratégica em um mercado concentrado
A concentração do gasto em cinco hyperscalers e a concentração do poder de computação em poucas plataformas amplificam um problema clássico de diretoria: a homogeneidade. Quando o mercado depende de poucas decisões de alocação de capital, os vieses compartilhados se tornam macroeconômicos. Se essas decisões são tomadas por grupos que pensam de forma semelhante, o sistema completo se torna mais suscetível a erros sincronizados.
Este é o ponto onde a discussão sobre “bolha” se torna insuficiente. O risco sistêmico não é apenas sobrevalorização. É coordenação: muitos atores apostando na mesma arquitetura, nos mesmos prazos e nas mesmas suposições de demanda. No dia em que a narrativa dominante mudar —por pressão de acionistas, por custo da dívida, por regulação ou por uma nova eficiência técnica— a adaptação se propagará de maneira imediata.
Huang também abordou o aspecto geopolítico: a Nvidia reportou zero receita proveniente da China no trimestre atual, e mencionou que existem canais abertos para certas vendas, mas que dependem de decisões de compra de clientes. Além do detalhe, a mensagem para lideranças corporativas é simples: o mercado endereçado pode ser comprimido por políticas públicas, sem que isso invalide a tecnologia. E quando o mercado se comprime, a competição por margem se intensifica.
Nesse cenário, as empresas que sobrevivem não são aquelas que repetem a narrativa correta, mas aquelas que constroem relações de confiança e capacidade de execução fora dos centros tradicionais de poder. Capital social robusto significa mais opções: talentos que permanecem, parceiros que cooperam, clientes que co-desenham, fornecedores que priorizam. Em mercados concentrados, essa rede é uma vantagem financeira, não um luxo cultural.
Mandato operacional para o C-Level: diversificar poder antes que o mercado se diversifique
A defesa de Huang sobre a sustentabilidade do gasto em IA pode estar correta no eixo tecnológico e, ainda assim, deixar muitas empresas vulneráveis por razões não técnicas: dependência de cinco orçamentos, dívida financiando infraestrutura e organizações que não estão preparadas para aprender rapidamente a partir de sua periferia.
Para os líderes de software e das empresas usuárias de IA, a jogada racional é dupla. Primeiro, construir disciplina de retorno: cada implantação deve justificar o custo de computação com métricas de negócio, não com adoção cosmética. Segundo, redesenhar a governança interna para que o conhecimento operacional e a diversidade funcional tenham poder real no ciclo de produto, compra e gestão de risco.
Na próxima reunião de diretoria, o C-Level deve olhar para sua própria mesa e reconhecer que se todos são tão parecidos, inevitavelmente compartilham os mesmos pontos cegos, o que os torna vítimas iminentes da disrupção.











