La carrera por la IA dejó de ser software: ahora se gana con electricidad y hormigón
Por años, la narrativa de la IA se contó como una guerra de modelos: quién entrenaba mejor, quién lanzaba antes, quién tenía el talento. Esa etapa se está quedando corta. Los números que emergen para 2026 reescriben el mapa competitivo con una crudeza propia de industrias pesadas: Meta, Microsoft, Alphabet, Amazon y Oracle se encaminan a comprometer entre 660.000 y 690.000 millones de dólares en capex para infraestructura de IA, casi el doble de 2025, según el recuento de TechCrunch. Y en paralelo, Jensen Huang proyecta un orden de magnitud todavía mayor: 3 a 4 billones de dólares en inversión total en infraestructura de IA hacia el final de la década.
El detalle que incomoda a muchos equipos ejecutivos es que este salto no se explica por una “apuesta a futuro” etérea. Está empujado por fricciones presentes: capacidad de centros de datos, disponibilidad de GPUs y, sobre todo, energía. Microsoft, por ejemplo, carga con un dato que funciona como termómetro del mercado: 80.000 millones de dólares de pedidos pendientes en Azure por restricciones de potencia. El cuello de botella ya no está en el roadmap de producto, sino en la red eléctrica y en la capacidad de construir.
El nuevo balance general de la IA: capex masivo y demanda que no entra
El primer cambio estructural es contable y estratégico a la vez. Lo que se está financiando no es solo “computación”, sino capacidad industrial: terrenos, subestaciones, contratos energéticos, enfriamiento, y centros de datos diseñados para cargas de IA. TechCrunch describe cómo los grandes jugadores se están moviendo con cifras que antes se asociaban a ciclos de infraestructura pública.
Las guías de inversión para 2026 dibujan el tamaño del viraje: Amazon proyecta 200.000 millones de dólares (desde 131.000 millones en 2025), Alphabet entre 175.000 y 185.000 millones (desde 91.000 millones), Meta entre 115.000 y 135.000 millones (desde 71.000 millones), Microsoft encaminada a 120.000 millones o más, y Oracle a 50.000 millones, un salto de 136% sobre 2025. Estas cifras, en conjunto, forman el rango agregado de 660.000 a 690.000 millones.
Detrás del agregado hay un mensaje operativo: los hyperscalers están aceptando que, por un periodo, la IA se administra como una industria donde el ganador es quien logra convertir liquidez en capacidad física utilizable antes que el resto. En este contexto, el “time to market” se mide en megavatios habilitados, no en sprints.
Ese giro tiene implicaciones financieras inevitables. El capex se vuelve una palanca de posicionamiento, pero también una fuente de presión: si la monetización de la IA no acompaña, el activo queda ahí, depreciándose y compitiendo por energía con otros usos. El mercado, por ahora, parece estar validando la tesis de escasez: la señal de Microsoft sobre backlogs por potencia funciona como evidencia de que la demanda excede la oferta disponible.
Centros de datos como producto: el cliente compra certeza, no “modelos”
Me interesa mirar esta carrera desde un lente de comportamiento del consumidor, porque el “cliente” de esta infraestructura no es solo el usuario final de un chatbot. El cliente relevante es el que paga: empresas que necesitan integrar IA en operaciones, atención, programación, marketing y análisis; y que hoy “contratan” un resultado muy específico: certeza de cómputo.
En 2024 o 2025, muchas conversaciones comerciales de IA se resolvían con demos y promesas de productividad. En 2026, el diferencial se está trasladando a algo más prosaico: disponibilidad garantizada. Cuando un proveedor acumula pedidos sin poder servirlos (el backlog de Azure), el cliente corporativo aprende una lección pragmática: el riesgo ya no es solo “si el modelo funciona”, sino si hay capacidad para correrlo cuando lo necesito.
Ahí aparece una innovación menos glamorosa pero más determinante: convertir infraestructura en una propuesta de valor explícita. Proyectos como Hyperion de Meta —un sitio de 2.250 acres en Luisiana, alrededor de 10.000 millones de dólares y escalable a 5GW, con planes vinculados a una planta nuclear según lo reportado— no son un capricho de ingeniería. Son un intento de empaquetar lo más escaso como “producto”: energía más cómputo.
Y el caso Stargate lleva esa lógica al extremo. La empresa conjunta de OpenAI, SoftBank, Oracle y MGX, anunciada con respaldo de la administración Trump, apunta a 500.000 millones de dólares para 2029, con un despliegue inicial de 100.000 millones y una planificación de 7GW en cinco sitios en Texas, Nuevo México y Ohio (a septiembre de 2025), además de más de 400.000 millones comprometidos en los primeros tres años. Esto ya no parece una ampliación incremental de nube; parece la construcción de una nueva capa industrial.
En términos de consumidor corporativo, el patrón es claro: se está pagando por continuidad operativa. Cuando la IA se vuelve un componente de procesos críticos, la interrupción por falta de capacidad deja de ser tolerable. La compra se desplaza desde “software inteligente” hacia “servicio industrial confiable”.
La pelea por la cadena de suministro: Nvidia, acuerdos de GPUs y alianzas que fijan dependencia
La otra dimensión del poder no es el centro de datos en sí, sino la cadena de suministro que lo hace útil. TechCrunch recopila acuerdos que, por tamaño, parecen más cercanos a contratos de commodities que a alianzas tecnológicas.
OpenAI, por ejemplo, aparece vinculada a un acuerdo de 100.000 millones de dólares en GPUs con Nvidia, además de un esquema de GPUs por acciones con AMD. Nvidia, a su vez, habría reflejado una estructura similar con xAI. En paralelo, se recuerda que Microsoft invirtió casi 14.000 millones de dólares en OpenAI desde 2019, comenzando con el pacto de 1.000 millones que incluía exclusividad en Azure (más tarde relajada hacia un enfoque multicloud con “derecho de primera negativa”). Y Amazon invirtió 8.000 millones de dólares en Anthropic, ajustando hardware para sus necesidades.
Financieramente, esto se lee como un intento de reducir volatilidad en tres frentes:
1) Asegurar suministro: quien no fija GPUs, queda a merced de colas y precios.
2) Asegurar demanda: quien financia o se integra con un laboratorio relevante, se garantiza cargas de trabajo que llenen el capex.
3) Convertir infraestructura en lock-in: no necesariamente mediante cláusulas de exclusividad, sino por costos de cambio operativos.
El matiz importante es que el poder de negociación se está moviendo. Cuando hay escasez, el proveedor de insumos (GPUs, energía, capacidad de construcción) captura más valor. La nube compite, pero también depende. Por eso el comentario de Huang sobre los cuellos de botella energéticos importa tanto: el limitante más duro no es el algoritmo, es el acceso a potencia eléctrica.
Este reordenamiento también explica el crecimiento atípico de Oracle en la historia: su objetivo de 50.000 millones de dólares de capex y sus 523.000 millones en obligaciones de desempeño restantes sugieren un reposicionamiento para capturar demanda de infraestructura a escala, potenciado por su rol en Stargate.
El riesgo silencioso: infraestructura sobredimensionada y experiencia de usuario degradada
Cuando una industria entra en modo “construir primero, monetizar después”, el riesgo no siempre es el fracaso tecnológico. A menudo es la desconexión con el trabajo real del cliente.
Aquí hay una tensión que me parece central: el gasto agregado de 660.000 a 690.000 millones convive con un hecho señalado en el briefing: las empresas puras de IA muestran crecimiento de ingresos rápido, pero siguen siendo una fracción del desembolso total de infraestructura. Ese desbalance no implica que la inversión sea irracional; implica que el modelo de captura de valor todavía está en consolidación.
En el camino, aparecen dos peligros operativos:
- Sobreconstrucción de capacidad “premium”: si la infraestructura se diseña para el caso más extremo (entrenamiento masivo, latencias mínimas, redundancias máximas), el costo unitario puede empujar precios hacia arriba. Eso abre espacio para alternativas más simples y baratas en segmentos que solo necesitan inferencia básica o flujos acotados.
- Degradación del servicio por congestión: el backlog de Azure por potencia es la versión corporativa de una mala experiencia de usuario. En el mundo enterprise, la frustración no se expresa en reseñas; se expresa en migraciones parciales, arquitecturas híbridas y compras redundantes para reducir dependencia.
La señal de mercado es que los grandes están apostando a que “la IA consumirá toda la capacidad disponible”, como sintetiza el análisis citado de Futurum Group sobre el salto desde ~380.000 millones en 2025 a 660–690.000 millones en 2026. Si esa hipótesis se cumple, el capex se justifica. Si se cumple a medias, el ganador será quien haya construido con mayor flexibilidad contractual y energética.
Por eso la discusión pública que viene —un encuentro en la Casa Blanca en marzo de 2026 con Amazon, Google, Meta, Microsoft, xAI, Oracle y OpenAI, según el briefing— tiene lectura económica: habilitar energía, permisos y construcción define cuota de mercado futura tanto como el mejor modelo.
La dirección estratégica ya está marcada: la IA se venderá como capacidad garantizada
La historia de 2026 muestra que el “producto” decisivo se desplazó. La IA seguirá compitiendo en calidad de modelos, sí, pero el poder económico se está acumulando en quien controla el cuello de botella físico: centros de datos, GPUs y electricidad.
Para un CEO o CFO, la implicación práctica es que la conversación sobre IA deja de ser solo una discusión de software y pasa a ser una discusión de estructura de costos, dependencia de proveedores y riesgo operativo. En el corto plazo, la escala favorece a quienes pueden absorber capex masivo. En el mediano, el espacio competitivo se abrirá para propuestas que entreguen suficiente IA a menor costo y con menos requisitos de infraestructura, especialmente donde el cliente no necesita el máximo rendimiento.
El patrón de comportamiento del consumidor corporativo que esta carrera revela es contundente: las empresas no están contratando “IA” como concepto; están contratando continuidad y certeza para transformar procesos sin que la infraestructura les falle en el momento crítico.










