La frase que más debería incomodar a un CFO no es la más ruidosa, sino la más simple: más de la mitad de los ingresos de Nvidia provienen de cinco grandes clientes, los llamados hyperscalers. Ese dato, dicho en la misma semana en que la compañía reportó US$68,1 mil millones de ingresos en el cuarto trimestre fiscal 2025, +73% interanual, es la pista central para leer el momento de mercado y para entender por qué Jensen Huang sostiene que los inversores “lo entendieron mal” al evaluar la amenaza de la IA sobre las empresas de software. No se trata de si la IA “mata” al software. Se trata de quién está financiando el nuevo software, en qué condiciones, y con qué resiliencia.
En la llamada de resultados, Huang encuadró el debate de sostenibilidad con una aritmética brutal: el mundo venía invirtiendo US$300–400 mil millones al año en computación clásica, y con IA la necesidad de cómputo sería “1.000 veces mayor”, por lo que el mundo invertirá para “producir ese token”. Su conclusión fue directa: US$700 mil millones de capex combinado proyectado para 2026 en los grandes jugadores no sería un techo, sino el comienzo de una capacidad de generación de “tokens” que seguirá expandiéndose. También habló de una década de construcción para esta industria. La narrativa está clara: no hay regreso a la computación anterior; la inversión es estructural.
El mercado escucha esa confianza, mira el volumen de capex y se pregunta por el final de la curva. Si los cinco principales duplicaran gasto año tras año, se llega a trillones en pocos años. Esa matemática no cierra con la caja libre actual, y la propia información disponible reconoce que estos actores ya están gastando por encima de su free cash flow y levantando deuda para financiar centros de datos. La discusión, entonces, no es filosófica. Es de estructura de mercado y de concentración de riesgo.
La sostenibilidad del capex no se juega en el “si”, sino en el “quién paga”
Cuando el capex combinado se aproxima a US$700 mil millones en 2026, con planes como Meta hasta US$135 mil millones (desde US$72 mil millones en 2025) y Google hasta US$185 mil millones (desde US$91 mil millones), no estamos frente a un gasto incremental. Es un reordenamiento de prioridades corporativas a escala industrial. Huang lo presenta como un “nuevo modo” de computar que no retrocede. Esa tesis tiene consistencia interna: si el output económico de la IA depende de tokens generados, y los tokens dependen de infraestructura, la inversión se vuelve un prerrequisito.
Pero desde una perspectiva de dirección financiera, la sostenibilidad se decide por la distribución del costo y del retorno, no por la inevitabilidad tecnológica. Con más de la mitad de ingresos de Nvidia concentrados en cinco compradores, cualquier cambio de ritmo, de arquitectura técnica o de política de compras en ese quinteto reconfigura el mercado completo. Incluso si la demanda agregada crece, el poder de negociación se inclina hacia quienes controlan el capex y la demanda final.
Aquí aparece un punto ciego frecuente: tratar la “burbuja” como un fenómeno psicológico y no como un fenómeno de gobernanza. La dependencia de pocas chequeras crea ciclos más violentos. Acelera cuando los incentivos están alineados y frena cuando el directorio exige recompras, dividendos o disciplina de capital. De hecho, ya hay analistas observando el costo de oportunidad para accionistas, al notar que ese capex es capital que no vuelve en dividendos o buybacks. Ese conflicto no es menor: es la palanca que decide si el gasto se convierte en inversión sostenida o en pico.
La tesis de Huang puede convivir con la preocupación del mercado. La inversión puede ser necesaria y, al mismo tiempo, estar concentrada de manera frágil. En ese contexto, la variable crítica para 2026–2027 no es solo cuántos chips se venden, sino cuánta dependencia estratégica se está construyendo en una cadena donde el comprador final es un oligopolio.
Si la IA amenaza al software, también lo obliga a madurar su economía
La lectura superficial es que la IA “comprime” el valor del software tradicional, en especial el modelo SaaS, porque automatiza tareas que antes justificaban licencias y asientos. La lectura que defendió Huang, según la cobertura citada, es que los mercados sobredimensionan esa amenaza. La forma más útil de entenderlo en términos de negocio es distinta: la IA reordena el costo de producir y operar software, y desplaza poder hacia quien controla cómputo, datos, distribución y capacidad de iteración.
Eso no destruye automáticamente a las compañías de software, pero sí elimina la comodidad de los márgenes por inercia. La IA impone una auditoría permanente de unit economics. Si el cliente percibe que una función se volvió “comoditizable” por un modelo, la empresa de software debe responder con una de tres salidas, todas exigentes: (1) moverse hacia resultados medibles en el negocio del cliente, (2) especializarse en dominios donde datos, regulación o integración crean barreras reales, o (3) competir en costo de operación, lo cual requiere escala y excelencia técnica.
En esa transición, el discurso de “tokenización” de Huang importa porque sugiere un nuevo denominador común para el precio del valor digital: no el asiento, sino el costo de generar trabajo computacional. Si el mercado compra esa métrica, el software deja de venderse como promesa de productividad y comienza a venderse como eficiencia verificable. Eso puede ser una amenaza para quien vive de empaquetar procesos, y una oportunidad para quien puede demostrar impacto.
La contracara es que muchas empresas quedarán atrapadas entre dos gigantes: hyperscalers que financian infraestructura y proveedores de chips que capturan el margen de rendimiento. En el medio, el software necesitará una ventaja defensible que no sea estética. Esta es la parte que no se resuelve con marketing, ni con “features”. Se resuelve con gobernanza de producto, datos de adopción real y disciplina comercial.
La nueva ola no es técnica, es organizacional: agentes y adopción empresarial
Huang señaló que la IA agéntica alcanzó un punto de inflexión en los últimos 2 a 3 meses, y que esto abre una nueva ola de demanda. También anticipó una secuencia: primero agentes; luego “IA física” en robótica y equipos industriales; y un crecimiento de uso empresarial que, según su lectura, “abre compuertas”. En términos de infraestructura, esa narrativa sirve para justificar por qué el capex no se agota en un ciclo de entrenamiento de modelos, sino que se expande hacia inferencia y operación continua.
Desde mi lente de capital social, el cambio es aún más incómodo para las compañías: los agentes desplazan el trabajo hacia la periferia de la organización. La productividad deja de ser un proyecto del área de sistemas y pasa a ser una capacidad distribuida: operaciones, finanzas, ventas, servicio, compliance. Eso aumenta el valor de redes internas horizontales donde la información circula y el aprendizaje se vuelve colectivo. También castiga estructuras rígidas donde el conocimiento se concentra en pocos roles.
Aquí emerge el riesgo de automatizar desigualdad sin siquiera notarlo. Si el diseño de agentes y flujos se hace solo desde una mesa homogénea, los casos de uso que se priorizan suelen reflejar la experiencia de quienes deciden, no la realidad de quienes ejecutan. El resultado típico no es un escándalo ético, sino una falla de escala: el agente funciona en demo y falla en operación porque no contempla excepciones, lenguaje real de usuarios, fricciones en terreno, ni incentivos de los equipos.
La adopción empresarial que Huang describe como creciente no se gana con promesas de “transformación”. Se gana con implementación que entiende a la organización como una red viva. Los equipos más diversos en origen y función suelen detectar antes los puntos ciegos operativos. No por virtud moral, sino por cobertura de realidad.
El costo oculto de la homogeneidad: fragilidad estratégica en un mercado concentrado
La concentración del gasto en cinco hyperscalers y la concentración del poder de cómputo en pocas plataformas amplifican un problema clásico de directorio: la homogeneidad. Cuando el mercado depende de pocas decisiones de asignación de capital, los sesgos compartidos se vuelven macroeconómicos. Si esas decisiones se toman en grupos que piensan parecido, el sistema completo se vuelve más propenso a errores sincronizados.
Este es el punto donde la discusión de “burbuja” se queda corta. El riesgo sistémico no es solo sobrevaloración. Es coordinación: muchos actores apostando por la misma arquitectura, los mismos plazos y los mismos supuestos de demanda. El día que la narrativa dominante cambia —por presión de accionistas, por costo de deuda, por regulación o por una nueva eficiencia técnica— el ajuste se propaga de forma inmediata.
Huang también abordó el frente geopolítico: Nvidia guió a cero ingresos desde China en el trimestre actual, y mencionó que hay canales abiertos para ciertas ventas pero que dependen de decisiones de compra de clientes. Más allá del detalle, el mensaje para liderazgo corporativo es simple: el mercado direccionable puede comprimirse por política pública, sin que eso invalide la tecnología. Y cuando el mercado se comprime, la competencia por margen se intensifica.
En ese escenario, las empresas que sobreviven no son las que repiten la narrativa correcta, sino las que construyen relaciones de confianza y capacidad de ejecución fuera de los centros tradicionales de poder. Capital social robusto significa más opciones: talento que se queda, socios que cooperan, clientes que co-diseñan, proveedores que priorizan. En mercados concentrados, esa red es una ventaja financiera, no un lujo cultural.
Mandato operativo para el C-Level: diversificar poder antes de que diversifique el mercado
La defensa de Huang sobre la sostenibilidad del gasto en IA puede ser correcta en el eje tecnológico y, aun así, dejar a muchas compañías vulnerables por razones no técnicas: dependencia de cinco presupuestos, deuda financiando infraestructura, y organizaciones que no están diseñadas para aprender rápido desde su periferia.
Para los líderes de software y de empresas usuarias de IA, la jugada racional es doble. Primero, construir disciplina de retorno: cada despliegue debe justificar costo de cómputo con métricas de negocio, no con adopción cosmética. Segundo, rediseñar gobernanza interna para que el conocimiento operativo y la diversidad funcional tengan poder real en el ciclo de producto, compra y gestión de riesgo.
En la próxima reunión de directorio, el C-Level debe mirar su propia mesa chica y reconocer que si todos son tan parecidos, comparten inevitablemente los mismos puntos ciegos, lo que los convierte en víctimas inminentes de la disrupción.











