Sora因其自身的盲点而夭折
2026年3月24日,OpenAI在X网站上发布了两句话:“我们向Sora告别。”凭借这句话,该应用在六个月前迅速攀升至Apple排行榜的顶端,下载量超过了ChatGPT,并与华特·迪士尼达成了10亿美元的合作协议。其陨落之快和上升之势同样明显:到2026年1月,下载量骤降45%,平台的终生收入仅为210万美元,这一数字几乎无法支撑模型所需的计算基础设施。
官方解释中提到的因素包括芯片短缺、向机器人和物理世界仿真的重新导向,以及维持一个生成视频社交网络的运营负担。这些因素都是事实,但在2025年9月Sora对外发布时,这些问题并非不可预见。真正出错的不是技术,而是用于决策的认知框架。
产品未设计为真正需要它的人使用
Sora的推出伴随着一项名为“cameos”的功能:用户可以扫描面孔,将其插入人工智能生成的视频中。该功能在一场诉讼后被重新命名为“characters”,但根本问题并非表面化所能解决。几周后,该平台被用于制作有关马丁·路德·金和罗宾·威廉姆斯的未经授权的视频,导致其家属发表公开反应。OpenAI对此作出了更加严格的知识产权限制,但这反而侵蚀了吸引首批用户的创作自由。
这种循环在产品管理中有一个技术名词:对不利使用的预见失效。而这通常是设计团队结构中某种特定问题的症状。当构建工具的人共享相同的社会经济、文化和生活经验时,他们倾向于以自身为模型去塑造用户行为。这并非出于疏忽,而是因为房间里唯有的参考。如果有一个拥有不同视角的团队,包括那些历史上受到技术监控或图像操控影响的社区,他们会在面孔扫描器变得引人注目之前识别出风险。
关于这一模式的实证证据是一致的:麦肯锡对执行团队多样性的研究表明,在性别和种族多样性方面处于上四分之一的企业,比同类企业有25%至36%的更高获利概率。这并非由于配额,而是因为不同视角的异质性扩展了团队可预见的场景空间。Sora正是需要这种能力:预见它将如何被与建造者截然不同的人使用。
一项未能转移一美元的十亿美元合作
与华特·迪士尼的合作取消值得单独关注,因为这不是Sora关闭的附带损害:它证明了某些商业网络在基于地位信号而非共享价值基础上构建的结构脆弱性。
该协议在2025年12月宣布,承诺授权超过200个迪士尼角色用于使用Sora生成的视频,并扩大Disney+的体验。根据《半岛电视台》引用的消息来源,没有一笔交易得以完成。该合作协议在自己的条款中被视为探索性的。公开宣称的10亿美元投资实际上运作的是一份相互的新闻稿。
这展示了一个我在传统公司与高科技初创企业之间交易时常观察到的模式:对于品牌合作的迫切需求导致提前发布公告,从而取代了必要的尽职调查。迪士尼需要在股东面前展示技术的现代化。OpenAI亟需在其股东面前建立优质内容的信誉。双方都缺乏即时的动机去放慢发布,并询问产品的技术、法律和伦理基础是否足够坚固,以支持这一协议。
最终的结果便是网络在面临第一真实压力时断裂,就像社会资本理论所预言的那样,当连接是交易性而不是基于真正价值交流时。迪士尼后来的声明强调了获得的学习以及继续与其他平台探索的意图,正是对此的外交表达:该网络并没有根基。
向机器人技术转型揭示计算经济
OpenAI刚刚完成一轮融资,使其估值达到7300亿美元,公开上市在望。在这种背景下,将Sora团队重定向到机器人技术的世界模拟研究并非是收缩,而是表明了真实的边际在哪里。
面向消费市场的生成视频应用存在结构性经济问题:生成每秒高保真视频的边际成本高昂,消费者用户支付少或迅速流失,法律责任面广。Sora在整个产品生命周期内的210万美元收入,根本无法覆盖OpenAI所描述的超过“G-35时刻”视频成本。这一数学模型从未适用于普通消费市场。
而机器人技术和物理环境仿真则逻辑上有所不同。合同由企业签订,额外收入较高,对错误的监管容忍度不同,训练模型的知识产权可以更高效地保护。对于一家在严重亏损中运营并向接近四分之三万亿美元估值扩张的公司而言,此举回应了上市前期投资者所需看到的:将资源集中在可预测收益的领域。
我想在这里指出的是同样问题的另一个维度。机器人和物理模拟研究具有巨大的分配性影响:将自动化哪些工作、以什么速度、在哪些地理区域、面向哪些收入阶层。如果设计这些系统的团队与设计Sora的“cameos”团队的同质性相同,那么风险并非只是伦理层面的问题。这也是商业模式的风险,因为不预见它们将如何被社区所拒绝或监管的系统生命周期将更短,政治成本更高。
单一视角设计的真实成本
Sora的关闭并非一项失败技术的故事。其基础模型,Sora 2,依然在ChatGPT的付费墙后运作。技术得以存活,未能存活的是将其转变为一个大众消费社交网络的决策,而这一决策未能涵盖此背景所要求的预见和治理机制。
每一个记录下来的决裂点:面孔扫描器、迪士尼协议的管理、收入与计算成本的方程、用户保留率的下降,都可以从当时缺失的视角来解读。我并不是说一个更具多样性的团队一定能保证Sora的成功。我只是在指出,AI设计团队中缺乏多元视角是有可量化成本的:法律成本、声誉成本、用户保留成本,以及在未能产生一分钱的协议中的机会成本。
即将对机器人、仿真以及OpenAI未来重大举措做出决策的管理团队,继承了产生Sora的相同决策过程。问题并不在于技术是否足够好。OpenAI的技术在任何指标上都是令人印象深刻的。运营上的问题在于,当这些系统被设计时,房间里的人员是否能充分了解这些系统将生活的背景。
下次任何科技公司的董事会坐在一起评估一项大众产品的推出时,桌子的组成并不是一个装饰性的人口统计数据。而是一个直接影响现金流的风险变量。所有成员分享相同背景、相同网络和相同文化参考的团队并不更具凝聚力或高效:它更脆弱,因为他们的盲点是共通的,而房间里没有人能够指出它们。











