Sora murió por los mismos puntos ciegos que la crearon

Sora murió por los mismos puntos ciegos que la crearon

OpenAI cerró Sora seis meses después de su lanzamiento. La narrativa oficial habla de recursos escasos y deepfakes. El diagnóstico real apunta a algo más costoso: un equipo que no pudo anticipar lo que no sabía ver.

Isabel RíosIsabel Ríos25 de marzo de 20267 min
Compartir

Sora murió por los mismos puntos ciegos que la crearon

El 24 de marzo de 2026, OpenAI publicó dos palabras en X: "We're saying goodbye to Sora." Con esa frase, cerró una aplicación que seis meses antes había trepado al tope de los rankings de Apple, superado el millón de descargas más rápido que ChatGPT y sellado una alianza de mil millones de dólares con Walt Disney. La caída fue tan rápida como el ascenso: las descargas se desplomaron 45% para enero de 2026 y los ingresos de por vida de la plataforma totalizaron apenas 2,1 millones de dólares, una cifra que difícilmente justifica la infraestructura de cómputo que el modelo demandaba.

La explicación oficial combina escasez de chips, reorientación hacia robótica y simulación de mundos físicos, y la carga operativa de sostener una red social de video generativo. Todo eso es cierto. Pero ninguno de esos factores era imprevisible en septiembre de 2025 cuando Sora se lanzó al público. Lo que falló no fue la tecnología. Falló el mapa cognitivo con el que se tomaron las decisiones.

El producto que no se diseñó para las personas que más lo usarían

Sora nació con una función llamada "cameos": los usuarios podían escanear rostros para insertarlos en videos generados por inteligencia artificial. La característica fue renombrada "characters" tras una demanda, pero el problema de fondo no tenía solución cosmética. En pocas semanas, la plataforma fue utilizada para producir videos no autorizados de Martin Luther King Jr. y Robin Williams, generando reacciones públicas de sus familias. OpenAI respondió con restricciones de propiedad intelectual más estrictas, lo que a su vez erosionó precisamente la libertad creativa que había atraído a los primeros usuarios.

Este ciclo tiene un nombre técnico en gestión de producto: falla de anticipación de uso adverso. Y suele ser síntoma de algo específico en la arquitectura del equipo de diseño. Cuando las personas que construyen una herramienta comparten el mismo perfil socioeconómico, cultural y de experiencia vital, tienden a modelar el comportamiento del usuario sobre sí mismas. No por negligencia, sino porque es el único referente disponible en la sala. Un equipo con acceso a perspectivas diversas, incluyendo comunidades históricamente afectadas por la vigilancia tecnológica o la manipulación de imagen, habría reconocido el riesgo del escáner de rostros antes de que se convirtiera en titular.

La evidencia empírica sobre este patrón es consistente: la investigación de McKinsey sobre diversidad en equipos ejecutivos muestra que las empresas en el cuartil superior de diversidad de género y origen étnico tienen entre 25% y 36% más probabilidad de superar en rentabilidad a sus pares. No como consecuencia de cuotas, sino porque la heterogeneidad de perspectivas amplía el espacio de escenarios que el equipo puede anticipar. Sora necesitaba exactamente eso: capacidad de anticipar cómo sería usada por personas que no se parecen a quienes la construyeron.

Una alianza de mil millones de dólares que nunca transfirió un dólar

La cancelación de la alianza con Walt Disney merece atención separada, porque no es un daño colateral del cierre de Sora: es evidencia de la fragilidad estructural de ciertas redes de negocio que se construyen sobre señales de estatus antes que sobre valor compartido.

El acuerdo, anunciado en diciembre de 2025, prometía licenciar más de 200 personajes de Disney para videos generados con Sora y ampliar experiencias en Disney+. Según fuentes citadas por Al Jazeera, ninguna transacción financiera llegó a completarse. La alianza fue, en sus propios términos, exploratoria. Lo que se vendió públicamente como una inversión de mil millones de dólares operó en la práctica como un comunicado de prensa mutuo.

Esto ilustra un patrón que observo con frecuencia en acuerdos entre corporaciones tradicionales y startups de tecnología de alto perfil: la urgencia por asociar marcas genera anuncios prematuros que sustituyen la debida diligencia operativa. Disney necesitaba señalar modernidad tecnológica ante sus accionistas. OpenAI necesitaba credibilidad de contenido premium ante los suyos. Ninguna de las dos partes tenía incentivos inmediatos para frenar el anuncio y preguntar si la infraestructura técnica, legal y ética del producto era suficientemente sólida para soportar el acuerdo.

El resultado es una red que se rompe en la primera tensión real, exactamente como predice la teoría de capital social cuando las conexiones son transaccionales y no están ancladas en intercambio genuino de valor. La declaración posterior de Disney, que enfatizó el aprendizaje obtenido y su intención de continuar explorando con otras plataformas, es la articulación diplomática de exactamente eso: la red no tenía raíces.

Lo que el pivote a robótica revela sobre la economía del cómputo

OpenAI acaba de cerrar una ronda que eleva su valoración a 730 mil millones de dólares y tiene una oferta pública inicial en el horizonte. En ese contexto, la decisión de redirigir al equipo de Sora hacia investigación de simulación de mundo para robótica no es un repliegue. Es una señal sobre dónde están los márgenes reales.

Las aplicaciones de video generativo de consumo masivo tienen un problema económico estructural: el costo marginal de generar cada segundo de video de alta fidelidad es elevado, el usuario de consumo paga poco o abandona rápido, y la superficie de responsabilidad legal es enorme. Los 2,1 millones de dólares en ingresos de Sora durante toda su vida como producto no se acercan a cubrir el costo de cómputo de un modelo que OpenAI describió como potencialmente equivalente a un "momento G-35" en video. La aritmética nunca funcionó para el segmento de consumo masivo.

La robótica y la simulación de entornos físicos, en cambio, tienen una lógica distinta. Los contratos son con empresas, los tickets son mayores, la tolerancia regulatoria al error es diferente y la propiedad intelectual del modelo entrenado puede defenderse más eficientemente. Para una compañía que opera con pérdidas significativas mientras escala hacia una valuación de casi tres cuartos de billón de dólares, este movimiento responde a lo que los inversores institucionales pre-IPO necesitan ver: concentración de recursos en segmentos con retorno proyectable.

Lo que me interesa señalar aquí es otra dimensión del mismo problema. La investigación en robótica y simulación física tiene implicaciones distributivas enormes: qué trabajos serán automatizados, a qué velocidad, en qué geografías y para qué segmentos de ingreso. Si el equipo que diseña esos sistemas replica la homogeneidad del que diseñó los "cameos" de Sora, el riesgo no es solo ético. Es un riesgo de modelo de negocio, porque los sistemas que no anticipan cómo serán rechazados o regulados por las comunidades que afectan tienen una vida útil más corta y un costo político más alto.

El costo real de diseñar desde una sola perspectiva

El cierre de Sora no es la historia de una tecnología fallida. El modelo subyacente, Sora 2, sigue operando detrás del muro de pago de ChatGPT. La tecnología sobrevivió. Lo que no sobrevivió fue la decisión de convertirla en una red social de consumo masivo sin los mecanismos de anticipación y gobernanza que ese contexto exige.

Cada uno de los puntos de quiebre documentados, el escáner de rostros, la gestión del acuerdo Disney, la ecuación de ingresos versus cómputo, la caída de retención, tiene una lectura en términos de qué perspectivas estaban ausentes cuando se tomaron las decisiones que los produjeron. No estoy afirmando que un equipo más diverso habría garantizado el éxito de Sora. Estoy señalando que la ausencia de diversidad de perspectiva en equipos de diseño de IA tiene costos medibles: costos legales, costos reputacionales, costos de retención de usuario y costos de oportunidad en acuerdos que se deshacen antes de generar un centavo.

Los equipos directivos que van a tomar decisiones sobre robótica, simulación y los próximos grandes movimientos de OpenAI heredan el mismo proceso de decisión que produjo Sora. La pregunta no es si la tecnología es suficientemente buena. La tecnología de OpenAI es, por cualquier métrica, impresionante. La pregunta operativa es si las personas en la sala cuando se diseñan estos sistemas pueden ver con suficiente amplitud los contextos en los que esos sistemas van a vivir.

La próxima vez que el directorio de cualquier empresa tecnológica se siente a evaluar el lanzamiento de un producto con alcance masivo, la composición de esa mesa no es un dato demográfico decorativo. Es una variable de riesgo con impacto directo en el flujo de caja. Los equipos que todos sus integrantes comparten los mismos antecedentes, las mismas redes y las mismas referencias culturales no son más cohesivos ni más eficientes: son más frágiles, porque sus puntos ciegos son colectivos y nadie en la sala puede señalarlos.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar