Cien mil millones de eventos y el miedo que nadie quiere nombrar

Cien mil millones de eventos y el miedo que nadie quiere nombrar

Hay un número que merece detenerse a procesar: más de 100 mil millones de eventos de datos por día. Eso es lo que Striim mueve a través de sus tuberías de integración, conectando sistemas como Oracle, PostgreSQL, Salesforce o Kafka con plataformas de nube como Google Cloud Spanner, con una latencia que se mide en fracciones de segundo. El anuncio técnico es sólido. Pero lo que me interesa no está en el comunicado de prensa.

Andrés MolinaAndrés Molina23 de abril de 20267 min
Compartir

Hay un número que merece detenerse a procesar: más de 100 mil millones de eventos de datos por día. Eso es lo que Striim mueve a través de sus tuberías de integración, conectando sistemas como Oracle, PostgreSQL, Salesforce o Kafka con plataformas de nube como Google Cloud Spanner, con una latencia que se mide en fracciones de segundo. El 22 de abril de 2026, la empresa de Palo Alto formalizó una expansión de capacidades que incluye el lanzamiento de Validata Cloud, junto con avances en sus Agentes de IA —entre ellos Sentinel para detección de anomalías, Euclid para búsquedas semánticas y Sherlock para gobernanza— y la evolución de MCP AgentLink, su herramienta para conectar agentes de inteligencia artificial con réplicas de datos en tiempo real sin tocar los sistemas de producción.

El anuncio técnico es sólido. Pero lo que me interesa no está en el comunicado de prensa. Está en la frase que eligió su CEO, Ali Kutay, para resumirlo todo: "darles a los clientes la confianza para escalar sin frenar la innovación". Confianza. No velocidad. No rendimiento. Confianza. Esa palabra revela más sobre el estado psicológico del mercado empresarial que cualquier hoja de especificaciones.

El verdadero problema no es el dato, es el pánico al dato en producción

Cuando una empresa lleva años operando un sistema Oracle en sus instalaciones físicas, ese sistema no es solo software. Es el tejido nervioso de su operación. Cada transacción de prescripción en las más de 9.000 farmacias del retailer de salud que usa Striim, cada movimiento logístico en una empresa como UPS, cada ciclo de inventario en Macy's, vive ahí. Migrar eso, o peor aún, permitir que un agente de IA lo consulte directamente, activa algo que ningún arquitecto de datos puede resolver con más capas de tecnología: el miedo institucional a perder el control de los sistemas que sostienen el negocio.

Este miedo no es irracional. Es completamente lógico. Los equipos de TI que han visto caer un sistema crítico a las 2 de la mañana por una consulta mal ejecutada no necesitan que les expliquen por qué la ansiedad ante la IA en producción es alta. Y los CFOs que han firmado multas regulatorias por brechas de datos tampoco. Lo que Striim está vendiendo, en el fondo, no es un conector de datos. Es una capa de distancia psicológica entre el agente de IA y el corazón del negocio. MCP AgentLink crea réplicas seguras, gobernadas, enriquecidas en tránsito con enmascaramiento de datos personales y embeddings vectoriales, para que el agente opere sobre una copia validada y nunca toque directamente el sistema que no puede fallar.

La empresa FinTech multinacional descrita en el anuncio —que mantiene sincronización bidireccional entre su Oracle local y Google Cloud Spanner— ilustra perfectamente esta mecánica: no abandonaron su sistema antiguo de golpe. Mantuvieron ambos mundos alineados mientras construían confianza operativa en el nuevo. Eso no es indecisión. Es la única manera de gestionar el hábito institucional en organizaciones que no pueden permitirse ni un minuto de interrupción.

Por qué el mercado de IA empresarial sigue atascado en la experimentación

La narrativa dominante en la industria dice que las empresas están "adoptando IA". Los números cuentan una historia más matizada. La gran mayoría de los proyectos de inteligencia artificial corporativa nunca llegan a producción. Se quedan en pilotos, en pruebas de concepto, en presentaciones a la junta directiva. Y la razón técnica que suelen citar los equipos —"nuestros datos no están limpios", "los sistemas no están integrados", "necesitamos una arquitectura moderna"— es frecuentemente una traducción socialmente aceptable de algo más difícil de admitir: no sabemos exactamente qué hará el agente cuando opere con datos de producción, y eso nos aterra.

El movimiento estratégico de Striim con el Protocolo de Contexto de Modelo (MCP) es relevante precisamente aquí. MCP está siendo respaldado por Anthropic, OpenAI, Google, AWS, Oracle y Microsoft como el estándar de interoperabilidad para que los agentes de IA se conecten a sistemas activos. Cuando toda esa infraestructura apunta hacia un protocolo, la pregunta que enfrentan las empresas no es si adoptarlo, sino cuándo y bajo qué condiciones de seguridad. Striim está apostando a que la respuesta correcta para la mayoría de los equipos corporativos es: "cuando alguien me garantice que no voy a romper nada".

La proposición de valor no está en la velocidad del dato. Está en reducir el costo psicológico de la decisión. Un equipo que puede decirle a su CTO "el agente opera sobre una réplica gobernada, con PII enmascarado, con auditoría completa, sin tocar producción" tiene un argumento que supera la parálisis. Y una vez que ese argumento existe, la fricción para escalar cae de forma significativa. El retailer de salud no desplegó Striim en 9.000 farmacias porque la tecnología fuera la más barata del mercado. Lo hizo porque alguien en esa organización pudo justificar internamente que el riesgo estaba contenido.

El error que cometen los líderes tecnológicos al vender IA a sus propias organizaciones

Hay un patrón que observo con frecuencia en empresas que intentan escalar IA internamente y fracasan en el intento. Los equipos técnicos construyen una solución que funciona, la demuestran en un entorno controlado, producen métricas impresionantes y luego se frustran porque el resto de la organización no adopta. El diagnóstico habitual es "resistencia al cambio" o "falta de cultura de datos". Ambos son ciertos, pero incompletos.

Lo que esos equipos están haciendo es invertir el 90% de su energía en hacer que la solución brille técnicamente, y el 10% restante en atender las preguntas que realmente paralizan a quien toma la decisión: qué pasa si el agente da una respuesta incorrecta en una transacción crítica, quién es responsable cuando hay un error de compliance, cómo se audita lo que hizo el sistema la semana pasada, qué pasa con los datos de clientes que fluyen por ahí. Esas no son preguntas técnicas. Son preguntas sobre confianza, responsabilidad y control.

La arquitectura que Striim presentó en Google Cloud —con gobernanza embebida en el flujo de datos, agentes especializados en cumplimiento normativo y réplicas validadas antes de que el agente las consuma— es una respuesta directa a esas preguntas. No añade capas de burocracia sobre la tecnología. Las incorpora al proceso mismo de movimiento del dato. El compliance no es un paso posterior; ocurre en tránsito, a sub-segundo de latencia.

La confianza como infraestructura, no como característica adicional

Los líderes que lograrán escalar IA en producción durante los próximos dos años no serán necesariamente los que tengan los modelos más avanzados ni los pipelines más rápidos. Serán los que hayan construido las condiciones organizacionales para que sus equipos confíen en lo que el sistema hace cuando nadie lo está mirando. Eso requiere gobernanza embebida, no gobernanza declarada. Requiere réplicas auditables, no promesas de seguridad en un documento de arquitectura.

La distancia entre un piloto de IA y un despliegue en producción que escala no se mide en semanas de desarrollo. Se mide en la cantidad de miedos no atendidos que se acumularon durante el proceso. Las organizaciones que están desplegando estos sistemas en miles de puntos de operación simultáneos —farmacias, aerolíneas, centros de distribución— no lo lograron porque eliminaron la complejidad técnica. Lo lograron porque alguien tomó la decisión de invertir tanto en apagar los miedos de sus equipos internos como en construir la tecnología misma.

Los líderes que siguen midiendo el éxito de su estrategia de IA únicamente por la sofisticación del modelo o la velocidad del dato están construyendo sobre una base que se erosiona sola: tarde o temprano, la primera falla en producción activa todos los miedos que nunca fueron atendidos, y el proyecto retrocede meses. La inversión más rentable en este momento no está en hacer que la IA sea más inteligente. Está en hacer que la organización sienta que puede confiar en ella cuando opera sin supervisión humana directa.

Compartir

También te puede interesar