Barcelona y Singapur aparecieron en el mismo comunicado, pero lo relevante no fue la geografía. Fue la señal estratégica. El 2 de marzo de 2026, SynaXG anunció benchmarks de una red de acceso radio totalmente definida por software sobre NVIDIA AI Aerial, ejecutando en paralelo 5G en Frequency Range 1 (FR1), 5G en Frequency Range 2 (FR2) y cargas de trabajo de IA, con orquestación de GPU en tiempo real y guiada por políticas. En términos de promesa industrial, esto intenta cerrar la brecha entre dos mundos que históricamente se miraron con desconfianza: telecomunicaciones deterministas y computación elástica.
Los números que eligieron publicar son una declaración de intenciones: en una sola plataforma NVIDIA GH200, el sistema operó 20 celdas 5G NR de 100 MHz, superando 36 Gbps de throughput agregado, con latencia sub-10 ms y soporte de hasta 1.200 equipos conectados por celda. Además, reportan una implementación de RAN virtualizada en FR2 de “grado operador” corriendo de forma concurrente con FR1 y cargas de IA en GPU compartida, con latencia extremo a extremo tan baja como 5 ms. Y, para la ansiedad operativa de cualquier telco, subrayan un detalle que no es marketing menor: funcionamiento continuo 24x7 bajo carga sostenida.
La noticia viene enmarcada por un coro de alianzas y demostraciones en Mobile World Congress 2026: integración con radios FR1 de Eridan, colaboración de comercialización con LITEON y un rol de integración para Supermicro. SynaXG también se posiciona dentro del trabajo de la AI-RAN Alliance, donde contribuye a arquitecturas nativas de IA. La lectura rápida es “otro demo”. La lectura ejecutiva es distinta: una RAN que se comporta como software reconfigurable, compartiendo GPU con IA, empieza a erosionar el valor de la caja propietaria.
La prueba no es FR1 o FR2: es la convivencia sin degradación
La parte más interesante del anuncio no es que corra 5G en GPU. Eso ya era el horizonte técnico. La diferencia es la simultaneidad: FR1, FR2 y cargas de IA en el mismo sustrato computacional, sin que los indicadores clave se derrumben. La RAN es un sistema obsesionado con la predictibilidad, y por buenas razones: un milisegundo aquí no es un detalle, es experiencia de usuario, planificación de radio y capacidad efectiva.SynaXG afirma que logra rendimiento de grado operador en FR1 sobre una única GH200, y que además ejecuta FR2 virtualizado al mismo tiempo que IA. En el lenguaje del negocio, esto equivale a eliminar el viejo conflicto de infraestructura dedicada: un clúster para RAN, otro para inferencia, otro para analítica, y todos con picos y valles de utilización. La orquestación de GPU “en tiempo real y guiada por políticas” sugiere un mecanismo para reasignar ciclos de cómputo según demanda, algo que en redes móviles siempre fue el sueño y casi nunca la realidad.
Hay un matiz clave: el comunicado habla de mantener throughput, latencia y estabilidad. La estabilidad es la palabra que separa “demo brillante” de “operación que factura”. La mención explícita a operación 24x7 bajo carga sostenida indica que la conversación ya no es únicamente sobre viabilidad tecnológica, sino sobre confiabilidad operacional. El paso de FR1 a FR2 también pesa: FR2 aumenta complejidad de radio, planificación y requisitos de latencia, y el hecho de que lo presenten como “primera implementación” virtualizada de grado operador concurrente con IA es una apuesta por romper el prejuicio de que milimétricas y virtualización no conviven.
En paralelo, NVIDIA enmarca el logro como evidencia de que una arquitectura definida por software puede ofrecer agilidad tipo nube sin sacrificar métricas de operador, incluyendo rendimiento por watt. Ahí está el nervio económico: si el rendimiento por watt se sostiene, el argumento deja de ser futurista y se vuelve presupuestario.
La economía detrás del récord: de activos rígidos a infraestructura multiuso
Cuando una telco compra RAN tradicional, compra capacidad con forma de hardware especializado. Es un activo rígido, amortizable, difícil de reutilizar para otra cosa. El movimiento hacia una RAN definida por software en infraestructura acelerada apunta a algo más incómodo para el statu quo: convertir un gasto históricamente “mono-propósito” en una plataforma “multi-propósito”.Con los datos publicados, SynaXG intenta demostrar que una sola GH200 puede centralizar CU y DU y activar 20 carriers, y al mismo tiempo ejecutar IA. Si eso se traduce a despliegues reales, aparece una nueva matemática: la misma inversión computacional puede cubrir demanda móvil y demanda de inferencia en el borde. No hay cifras de ahorro en el comunicado y no corresponde inventarlas, pero la dirección es clara: consolidación de infraestructura y mejor utilización.
Esto también cambia el tipo de riesgo. El riesgo clásico de una red es sobredimensionar y pagar capacidad ociosa, o subdimensionar y degradar servicio. La elasticidad computacional, si es realmente determinista a nivel de latencia, recorta ese riesgo porque permite reasignar recursos según patrones de tráfico y cargas de IA. La palabra “políticas” importa: no es elasticidad anárquica, es reasignación gobernada por reglas operativas.
A la vez, emerge una dependencia: si la RAN corre sobre una plataforma acelerada específica, el proveedor de esa plataforma gana poder de negociación. El anuncio habla de “write once, run anywhere” sobre plataformas CUDA como GH200 y DGX Spark. Portabilidad dentro de una misma familia tecnológica es útil, pero no equivale a independencia total. Para el C-Level, el punto no es moralizar sobre dependencia, sino gestionarla: contratos, rutas de contingencia, y una arquitectura que evite bloqueos por diseño.
El nuevo mapa de poder: menos monopolio de hardware, más control del software
La RAN fue durante décadas el territorio donde el hardware mandaba y el software obedecía. Este anuncio empuja en sentido contrario: el valor se desplaza hacia el stack L1/L2/L3 definido por software y la capacidad de orquestar recursos de GPU con precisión. SynaXG se presenta como full-stack y lista para despliegue comercial, mientras NVIDIA queda como plataforma habilitadora con AI Aerial.Este tipo de cambio suele destruir monopolios de forma lenta al principio y abrupta después. Al principio, porque convive con lo instalado y porque los operadores no migran por entusiasmo sino por garantías. Abrupta después, cuando la evidencia operacional se acumula y los equipos financieros descubren que el costo marginal de nuevas funciones cae: optimización de red, analítica en tiempo real, inferencia local para casos de uso industriales, todo corriendo donde antes solo “vivía” la red.
La capa de socios también cuenta una historia: Eridan aparece como integrador de radios con su plataforma “Ultra-Clean Signal”; LITEON como socio de comercialización centrado en analítica e inferencia de baja latencia; Supermicro como integración. Es la anatomía típica de una industria que se reordena: el hardware se modulariza, el cómputo se estandariza, y la diferenciación se mueve hacia el software y la operación.
El riesgo organizacional para incumbentes tradicionales no es que la tecnología no funcione. Es que funcione lo suficiente como para reconfigurar las compras. Una vez que un operador cree que puede ejecutar RAN y IA sobre la misma base, el proceso de procurement deja de comprar “cajas” y empieza a comprar capacidad computacional, licencias de software y soporte de operación. Ahí cambian los márgenes y cambian los ganadores.
Inteligencia aumentada en el borde: eficiencia con criterio operativo
Este anuncio se vende como convergencia de RAN e IA, pero el impacto humano y operativo depende de cómo se use la IA. Ejecutar inferencia junto a la red puede mejorar planificación, detección de anomalías, optimización energética y experiencias industriales de baja latencia. También puede convertirse en automatización ciega si se persigue únicamente recorte de costos sin rediseñar procesos y responsabilidades.La señal positiva es que el comunicado insiste en determinismo, políticas y operación sostenida. Eso sugiere un enfoque más cercano a “asistencia operacional” que a “piloto automático”. En redes, la IA que aporta valor es la que acorta el tiempo entre observación y acción con trazabilidad: por qué se reasignó GPU, qué KPI se priorizó, qué límites se respetaron. El borde no es solo un lugar para ejecutar modelos; es un lugar para tomar decisiones con consecuencias inmediatas.
En clave de negocio, el caso más potente es el enterprise edge: fábricas, puertos, logística, seguridad industrial. Allí, tener conectividad 5G y analítica de baja latencia en el mismo sitio reduce fricción de integración y simplifica acuerdos de nivel de servicio. La promesa de “sin trade-offs” de red por correr IA se convierte en habilitador comercial, porque reduce el argumento del cliente que teme que la analítica le degrade la conectividad.
Al mismo tiempo, este modelo exige una disciplina nueva: gobernanza de modelos, actualización segura, pruebas de regresión sobre latencia y estabilidad, y equipos que entiendan tanto radio como GPU. La escasez real no está en el hardware, sino en el talento híbrido y en la capacidad de operar estos sistemas sin improvisación.
La dirección del mercado ya está marcada: software que desmonetiza la rigidez
SynaXG afirma que está lista para despliegue comercial tras demostrar FR1, FR2 y cargas de IA concurrentes en infraestructura NVIDIA AI Aerial, con métricas de throughput y latencia compatibles con operación de operador y estabilidad 24x7. Eso empuja al mercado de RAN a una fase donde el hardware especializado empieza a perder su prima, y el diferencial se reubica en software, orquestación y operación.En términos de dinámica exponencial, esta categoría entra en digitalización madura de la RAN y avanza hacia disrupción del modelo de caja propietaria, con señales iniciales de desmonetización de funciones que antes requerían equipos dedicados. La tecnología debe consolidar conectividad e inteligencia para empoderar el criterio humano en la operación y democratizar el acceso a redes avanzadas sin dependencia de infraestructura rígida.











