Sora morreu pelos mesmos pontos cegos que a criaram

Sora morreu pelos mesmos pontos cegos que a criaram

OpenAI fechou Sora seis meses após seu lançamento, mas a verdadeira causa foi uma equipe que não conseguiu prever o que não soube ver.

Isabel RíosIsabel Ríos25 de março de 20267 min
Compartilhar

Sora morreu pelos mesmos pontos cegos que a criaram

Em 24 de março de 2026, a OpenAI publicou duas palavras no X: "Estamos nos despedindo do Sora." Com essa frase, encerraram uma aplicação que, apenas seis meses antes, havia alcançado o topo dos rankings da Apple, superado um milhão de downloads mais rapidamente que o ChatGPT, e fechado uma parceria de um bilhão de dólares com a Walt Disney. A queda foi tão rápida quanto a ascensão: os downloads despencaram 45% até janeiro de 2026 e a receita total de toda a plataforma foi de apenas 2,1 milhões de dólares, um valor que dificilmente justifica a infraestrutura computacional que o modelo exigia.

A explicação oficial combina escassez de chips, reorientação para robótica e simulação de mundos físicos, e a carga operacional de manter uma rede social de vídeo generativo. Tudo isso é verdade. Mas nenhum desses fatores era imprevisível em setembro de 2025, quando o Sora foi lançado ao público. O que falhou não foi a tecnologia. Falhou o mapa cognitivo com o qual decisões foram tomadas.

O produto que não foi projetado para as pessoas que mais o usariam

O Sora nasceu com uma função chamada "cameos": os usuários podiam escanear rostos para inseri-los em vídeos gerados por inteligência artificial. A característica foi renomeada para "characters" após uma demanda, mas o problema de fundo não tinha solução cosmética. Em poucas semanas, a plataforma foi utilizada para produzir vídeos não autorizados de Martin Luther King Jr. e Robin Williams, gerando reações públicas de suas famílias. A OpenAI respondeu com restrições de propriedade intelectual mais rígidas, o que, por sua vez, minou a liberdade criativa que atraiu os primeiros usuários.

Esse ciclo tem um nome técnico em gestão de produto: falha de antecipação de uso adverso. E costuma ser sintoma de algo específico na arquitetura da equipe de design. Quando as pessoas que constrõem uma ferramenta compartilham o mesmo perfil socioeconômico, cultural e de experiência de vida, elas tendem a modelar o comportamento do usuário a partir de si mesmas. Não por negligência, mas porque é a única referência disponível na sala. Uma equipe com acesso a perspectivas diversas, incluindo comunidades historicamente afetadas pela vigilância tecnológica ou manipulação de imagem, teria reconhecido o risco do escâner de rostos antes de ele se tornar uma manchete.

A evidência empírica sobre esse padrão é consistente: a pesquisa da McKinsey sobre diversidade em equipes executivas mostra que as empresas no quartil superior de diversidade de gênero e origem étnica têm entre 25% e 36% mais probabilidade de superar em rentabilidade seus pares. Não como consequência de cotas, mas porque a heterogeneidade de perspectivas amplia o espaço de cenários que a equipe pode antecipar. Sora precisava exatamente disso: capacidade de antecipar como seria usado por pessoas que não se parecem com aqueles que a construíram.

Uma aliança de um bilhão de dólares que nunca transferiu um dólar

O cancelamento da aliança com a Walt Disney merece atenção separada, porque não é um dano colateral do fechamento do Sora: é evidência da fragilidade estrutural de certas redes de negócios que se constroem sobre sinais de status antes do valor compartilhado.

O acordo, anunciado em dezembro de 2025, prometia licenciar mais de 200 personagens da Disney para vídeos gerados com o Sora e ampliar experiências no Disney+. Segundo fontes citadas pela Al Jazeera, nenhuma transação financeira foi completada. A parceria foi, em seus próprios termos, exploratória. O que foi vendido publicamente como um investimento de um bilhão de dólares operou na prática como um comunicado de imprensa mútuo.

Isso ilustra um padrão que observo frequentemente em acordos entre corporações tradicionais e startups de tecnologia de alto perfil: a urgência por associar marcas gera anúncios prematuros que substituem a devida diligência operacional. A Disney precisava sinalizar modernidade tecnológica para seus acionistas. A OpenAI precisava de credibilidade de conteúdo premium para os seus. Nenhuma das partes tinha incentivos imediatos para frear o anúncio e indagar se a infraestrutura técnica, legal e ética do produto era suficientemente sólida para suportar o acordo.

O resultado é uma rede que se rompe na primeira tensão real, exatamente como prediz a teoria do capital social quando as conexões são transacionais e não estão ancoradas em um intercâmbio genuíno de valor. A declaração posterior da Disney, que enfatizou o aprendizado obtido e sua intenção de continuar explorando com outras plataformas, é a articulação diplomática exatamente disso: a rede não tinha raízes.

O que o pivô para robótica revela sobre a economia do computação

A OpenAI acaba de fechar uma rodada que eleva sua avaliação para 730 bilhões de dólares e tem um IPO no horizonte. Nesse contexto, a decisão de redirecionar a equipe do Sora para pesquisa em simulação de mundos para robótica não é um recuo. É um sinal sobre onde estão as margens reais.

As aplicações de vídeo generativo de consumo massivo têm um problema econômico estrutural: o custo marginal de gerar cada segundo de vídeo de alta fidelidade é elevado, o usuário de consumo paga pouco ou abandona rapidamente, e a superfície de responsabilidade legal é enorme. Os 2,1 milhões de dólares em receita do Sora durante toda sua vida como produto não se aproximam de cobrir o custo de computação de um modelo que a OpenAI descreveu como potencialmente equivalente a um "momento G-35" em vídeo. A aritmética nunca funcionou para o segmento de consumo massivo.

A robótica e a simulação de ambientes físicos, por outro lado, têm uma lógica distinta. Os contratos são com empresas, os tíquetes são maiores, a tolerância regulatória ao erro é diferente e a propriedade intelectual do modelo treinado pode ser defendida de forma mais eficiente. Para uma companhia que opera com perdas significativas enquanto escala para uma avaliação de quase três quartos de trilhão de dólares, esse movimento responde ao que investidores institucionais pré-IPO precisam ver: concentração de recursos em segmentos com retorno projetável.

O que me interessa destacar aqui é outra dimensão do mesmo problema. A pesquisa em robótica e simulação física tem implicações distributivas enormes: quais empregos serão automatizados, a que velocidade, em quais geografias e para quais segmentos de renda. Se a equipe que projeta esses sistemas replica a homogeneidade da que criou os "cameos" do Sora, o risco não é apenas ético. É um risco de modelo de negócio, porque os sistemas que não antecipam como serão rejeitados ou regulados pelas comunidades que afetam têm uma vida útil mais curta e um custo político mais alto.

O custo real de projetar a partir de uma única perspectiva

O fechamento do Sora não é a história de uma tecnologia falida. O modelo subjacente, Sora 2, continua operando atrás do muro de pagamento do ChatGPT. A tecnologia sobreviveu. O que não sobreviveu foi a decisão de torná-la uma rede social de consumo massivo sem os mecanismos de antecipação e governança que esse contexto exige.

Cada um dos pontos de quebra documentados, o escâner de rostos, a gestão do acordo Disney, a equação de receita versus computação, a queda na retenção, tem uma leitura em termos de quais perspectivas estavam ausentes quando foram tomadas as decisões que os produziram. Não estou afirmando que uma equipe mais diversa teria garantido o sucesso do Sora. Estou apontando que a ausência de diversidade de perspectiva em equipes de design de IA tem custos mensuráveis: custos legais, custos reputacionais, custos de retenção de usuário e custos de oportunidade em acordos que se desfazem antes de gerar um centavo.

As equipes executivas que vão tomar decisões sobre robótica, simulação e os próximos grandes movimentos da OpenAI herdam o mesmo processo de decisão que produziu o Sora. A questão não é se a tecnologia é suficientemente boa. A tecnologia da OpenAI é, por qualquer métrica, impressionante. A questão operacional é se as pessoas na sala ao projetar esses sistemas conseguem ver com amplitude suficiente os contextos em que esses sistemas irão viver.

Da próxima vez que o conselho de qualquer empresa de tecnologia se reunir para avaliar o lançamento de um produto com alcance massivo, a composição dessa mesa não é um dado demográfico decorativo. É uma variável de risco com impacto direto no fluxo de caixa. As equipes cujos integrantes compartilham os mesmos antecedentes, as mesmas redes e as mesmas referências culturais não são mais coesas ou mais eficientes: são mais frágeis, porque seus pontos cegos são coletivos e ninguém na sala consegue apontá-los.

Compartilhar
0 votos
Vote neste artigo!

Comentários

...

Você também pode gostar