Sora starb an denselben blinden Flecken, die sie geschaffen haben

Sora starb an denselben blinden Flecken, die sie geschaffen haben

OpenAI schloss Sora sechs Monate nach der Veröffentlichung. Die offizielle Narrative spricht von knappen Ressourcen und Deepfakes, doch die wahre Diagnose ist kostspieliger: Ein Team, das nicht vorhersagen konnte, was es nicht sehen konnte.

Isabel RíosIsabel Ríos25. März 20267 Min
Teilen

Sora starb an denselben blinden Flecken, die sie geschaffen haben

Am 24. März 2026 veröffentlichte OpenAI zwei Worte auf X: "Wir sagen Sora Lebewohl." Mit diesem Satz schloss eine Anwendung, die sechs Monate zuvor die Spitze der Apple-Rankings erklommen, schneller als ChatGPT die Million Download-Marke überschritt und eine Partnerschaft im Wert von einer Milliarde Dollar mit Walt Disney einging. Der Abstieg war ebenso schnell wie der Aufstieg: Die Downloads sanken bis Januar 2026 um 45 % und die Gesamteinnahmen der Plattform betrugen lediglich 2,1 Millionen Dollar, eine Zahl, die kaum die erforderliche Rechnerinfrastruktur rechtfertigt.

Die offizielle Erklärung verbindet einen Chipmangel, die Neuausrichtung auf Robotik und die Simulation physischer Welten sowie die operative Belastung, ein soziales Netzwerk für generative Videos aufrechtzuerhalten. All das ist wahr. Doch keiner dieser Faktoren war im September 2025, als Sora der Öffentlichkeit vorgestellt wurde, unvorhersehbar. Was versagte, war das kognitive Modell, mit dem Entscheidungen getroffen wurden.

Ein Produkt, das nicht für die Menschen entworfen wurde, die es am meisten nutzen würden

Sora wurde mit einer Funktion namens "Cameos" geboren: Die Nutzer konnten Gesichter scannen, um sie in von künstlicher Intelligenz generierten Videos einzufügen. Die Funktion wurde nach einer Klage in "Characters" umbenannt, doch das zugrunde liegende Problem ließ sich nicht kosmetisch lösen. In wenigen Wochen wurde die Plattform genutzt, um nicht autorisierte Videos von Martin Luther King Jr. und Robin Williams zu produzieren, was öffentliche Reaktionen ihrer Familien auslöste. OpenAI reagierte mit strikteren Einschränkungen des geistigen Eigentums, was wiederum genau die kreative Freiheit untergrub, die die ersten Nutzer angezogen hatte.

Dieser Zyklus hat einen technischen Begriff im Produktmanagement: Fehlende Antizipation von Missbrauch. Und dies ist oft ein Symptom für etwas Bestimmtes in der Struktur des Designteams. Wenn die Menschen, die ein Werkzeug entwickeln, dasselbe sozioökonomische, kulturelle und vitale Profil teilen, neigen sie dazu, das Nutzerverhalten nach sich selbst zu modellieren. Nicht etwa aus Nachlässigkeit, sondern weil dies der einzig verfügbare Referenzrahmen im Raum ist. Ein Team mit Zugang zu unterschiedlichen Perspektiven, einschließlich Gemeinschaften, die historisch von technologischer Überwachung oder Bildmanipulation betroffen sind, hätte das Risiko des Gesichtscanners erkannt, bevor es Schlagzeilen machte.

Die empirischen Beweise für dieses Muster sind konsistent: Die Forschung von McKinsey zur Diversität in Führungsteams zeigt, dass Unternehmen im obersten Quartil von Geschlechter- und ethnischer Diversität zwischen 25 % und 36 % wahrscheinlicher überdurchschnittliche Rentabilität erzielen als ihre Mitbewerber. Nicht aufgrund von Quoten, sondern weil die Heterogenität der Perspektiven den Raum für Szenarien erweitert, die das Team antizipieren kann. Sora benötigte genau das: die Fähigkeit vorherzusehen, wie es von Menschen genutzt werden würde, die sich nicht von denjenigen unterscheiden, die es gebaut haben.

Eine Allianz von einer Milliarde Dollar, die nie einen Dollar transferierte

Die Stornierung der Allianz mit Walt Disney verdient gesonderte Aufmerksamkeit, denn sie ist kein Kollateralschaden des Sora-Schlusses: Sie ist ein Beweis für die strukturelle Fragilität bestimmter Geschäftsnetze, die auf Statussignalen und nicht auf gemeinsamem Wert basieren.

Das Abkommen, das im Dezember 2025 angekündigt wurde, versprach die Lizenzierung von mehr als 200 Disney-Charakteren für Videos, die mit Sora erstellt wurden, und die Erweiterung von Erlebnissen auf Disney+. Laut von Al Jazeera zitierten Quellen wurde keine finanzielle Transaktion abgeschlossen. Die Allianz war, nach ihren eigenen Bedingungen, explorativ. Was öffentlich als eine Investition von einer Milliarde Dollar verkauft wurde, funktionierte in der Praxis als gemeinschaftliche Pressemitteilung.

Dies veranschaulicht ein Muster, das ich häufig bei Vereinbarungen zwischen traditionellen Unternehmen und prominenten Technologie-Startups beobachte: Die Dringlichkeit, Marken zu verbinden, führt zu verfrühten Ankündigungen, die die erforderliche betriebliche Sorgfalt ersetzen. Disney musste vor seinen Aktionären technologische Modernität signalisieren. OpenAI benötigte vor seinen eigenen eine glaubwürdige Premium-Inhalte. Keine der beiden Parteien hatte unmittelbare Anreize, die Ankündigung zu verlangsamen und zu fragen, ob die technische, rechtliche und ethische Infrastruktur des Produkts stark genug war, um der Vereinbarung standzuhalten.

Das Ergebnis ist ein Netz, das beim ersten echten Spannungsfeld reißt, genau wie es die Theorie des sozialen Kapitals vorhersagt, wenn die Verbindungen transaktional sind und nicht auf echtem Wert basieren. Die spätere Erklärung von Disney, die das gewonnene Wissen und die Absicht betonte, weiterhin mit anderen Plattformen zu erkunden, ist die diplomatische Artikulation genau dessen: Das Netzwerk hatte keine Wurzeln.

Was die Neuausrichtung auf Robotik über die Wirtschaft des Rechnens offenbart

OpenAI hat soeben eine Runde abgeschlossen, die seine Bewertung auf 730 Milliarden Dollar anhebt und hat einen Börsengang in Aussicht. In diesem Kontext ist die Entscheidung, das Sora-Team auf die Forschung zur simulation physischer Welten für die Robotik umzuleiten, kein Rückzug. Es ist ein Hinweis darauf, wo die tatsächlichen Margen liegen.

Die Anwendungen generativer Videos für den Massenverbrauch haben ein strukturelles wirtschaftliches Problem: Die Grenzkosten zur Erzeugung jeder Sekunde hochauflösendes Video sind hoch, der Verbrauchernutzer zahlt wenig oder bricht schnell ab, und die Haftungsoberfläche ist riesig. Die 2,1 Millionen Dollar Einnahmen von Sora während ihres gesamten Lebens als Produkt kommen nicht einmal annähernd den Kosten für den Betrieb eines Modells nahe, das OpenAI als potenziell vergleichbar mit einem "G-35-Moment" im Video beschreibt. Die Mathematik hat für den Massenkonsum-Sektor nie funktioniert.

Die Robotik und die Simulation physischer Umgebungen hingegen haben eine andere Logik. Die Verträge sind mit Unternehmen, die Tickets sind größer, die regulatorische Fehlertoleranz ist anders und das geistige Eigentum des trainierten Modells kann effizienter verteidigt werden. Für ein Unternehmen, das mit erheblichen Verlusten operiert, während es auf eine Bewertung von fast dreiviertel Billionen Dollar hochschwankt, entspricht dieser Schritt dem, was institutionelle Investoren vor dem Börsengang sehen müssen: Konzentration von Ressourcen in Segmente mit prognostizierbarem Ertrag.

Was ich hier hervorheben möchte, ist eine andere Dimension desselben Problems. Die Forschung in Robotik und physischer Simulation hat enorme distributive Implikationen: Welche Jobs werden automatisiert, in welchem Tempo, in welchen geografischen Gebieten und für welche Einkommenssegmente. Wenn das Team, das diese Systeme entwirft, die Homogenität des Teams repliziert, das die "Cameos" von Sora entworfen hat, besteht das Risiko nicht nur in ethischen Fragen. Es ist ein Geschäftsrisiko, denn Systeme, die nicht vorhersagen, wie sie von den betroffenen Gemeinschaften abgelehnt oder reguliert werden, haben eine kürzere Lebensdauer und höhere politische Kosten.

Die echten Kosten des Designs aus einer einzigen Perspektive

Das Schließen von Sora ist nicht die Geschichte einer gescheiterten Technologie. Das zugrunde liegende Modell, Sora 2, operiert weiterhin hinter der Bezahlschranke von ChatGPT. Die Technologie hat überlebt. Was nicht überlebte, war die Entscheidung, sie in ein soziales Netzwerk für den Massenverbrauch umzuwandeln, ohne die Mechanismen der Antizipation und Governance, die dieser Kontext verlangt.

Jeder der dokumentierten Wendepunkte, der Gesichtsscanner, das Management der Disney-Vereinbarung, die Gleichung Einnahmen versus Computation, der Rückgang der Nutzerbindung, hat eine Lesart hinsichtlich der Perspektiven, die fehlten, als die Entscheidungen getroffen wurden, die sie produzierten. Ich behaupte nicht, dass ein vielfältigeres Team den Erfolg von Sora garantiert hätte. Ich weise jedoch darauf hin, dass die Abwesenheit von Diversität in den Perspektiven der KIs-Designteams messbare Kosten hat: rechtliche Kosten, reputationale Kosten, Nutzerbindungskosten und Opportunitätskosten bei Vereinbarungen, die sich auflösen, bevor sie einen Cent einbringen.

Die Führungsteams, die Entscheidungen über Robotik, Simulation und die nächsten großen Schritte von OpenAI treffen werden, erben denselben Entscheidungsprozess, der Sora hervorgebracht hat. Die Frage ist nicht, ob die Technologie gut genug ist. Die Technologie von OpenAI ist, nach jedem Maßstab, beeindruckend. Die operative Frage ist, ob die Menschen im Raum, wenn diese Systeme entworfen werden, mit ausreichendem Weitblick die Kontexte sehen, in denen diese Systeme leben werden.

Das nächste Mal, wenn der Vorstand eines Technologieunternehmens sich zusammensetzt, um die Einführung eines Produkts mit großem Umfang zu bewerten, ist die Zusammensetzung dieses Tisches keine dekorative demografische Information. Es ist eine Risikovariable mit direktem Einfluss auf den Cashflow. Teams, deren Mitglieder die gleichen Hintergründe, die gleichen Netzwerke und die gleichen kulturellen Referenzen teilen, sind nicht kohäsiver oder effizienter: Sie sind fragiler, da ihre blinden Flecken kollektiv und niemand im Raum sie benennen kann.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren