Sora est morte à cause des mêmes angles morts qui l'ont créée

Sora est morte à cause des mêmes angles morts qui l'ont créée

OpenAI a fermé Sora six mois après son lancement. La narration officielle parle de ressources rares et de deepfakes, mais le diagnostic réel pointe vers une équipe qui n’a pas pu anticiper ce qu’elle ne voyait pas.

Isabel RíosIsabel Ríos25 mars 20267 min
Partager

Sora est morte à cause des mêmes angles morts qui l'ont créée

Le 24 mars 2026, OpenAI a publié deux mots sur X : "Nous disons adieu à Sora." Avec cette phrase, l’entreprise a fermé une application qui, six mois plus tôt, avait grimpé au sommet des classements d'Apple, dépassé un million de téléchargements plus rapidement que ChatGPT et scellé une alliance d'un milliard de dollars avec Walt Disney. La chute a été aussi rapide que l'ascension : les téléchargements ont chuté de 45 % en janvier 2026 et les revenus totaux de la plateforme n’ont atteint que 2,1 millions de dollars, une somme qui peine à justifier l'infrastructure informatique que le modèle exigeait.

L'explication officielle mélange pénurie de puces, réorientation vers la robotique et simulation de mondes physiques, ainsi que la charge opérationnelle de maintenir un réseau social de vidéos génératives. Tout cela est vrai. Mais aucun de ces facteurs n’était imprévisible en septembre 2025, lors du lancement de Sora. Ce qui a échoué, ce n'est pas la technologie. Ce qui a échoué, c'est la carte cognitive utilisée pour prendre les décisions.

Un produit mal conçu pour les utilisateurs principaux

Sora est née avec une fonction appelée "cameos" : les utilisateurs pouvaient scanner des visages pour les insérer dans des vidéos générées par intelligence artificielle. Cette fonctionnalité a été renommée "characters" après une poursuite, mais le problème sous-jacent n’avait pas de solution cosmétique. En quelques semaines, la plateforme a été utilisée pour créer des vidéos non autorisées de Martin Luther King Jr. et Robin Williams, engendrant des réactions publiques de leurs familles. OpenAI a répondu par des restrictions de propriété intellectuelle plus strictes, ce qui, en retour, a érodé la liberté créative qui avait attiré les premiers utilisateurs.

Ce cycle a un nom technique en gestion de produit : échec d'anticipation de l'utilisation abusive. Et cela témoigne souvent d'un problème spécifique dans l'architecture de l'équipe de conception. Lorsque les personnes qui construisent un outil partagent le même profil socio-économique, culturel et d'expérience de vie, elles tendent à modéliser le comportement des utilisateurs sur elles-mêmes. Non pas par négligence, mais parce que c'est le seul référent disponible dans la salle. Une équipe ayant accès à des perspectives diverses, y compris des communautés historiquement affectées par la surveillance technologique ou la manipulation de l'image, aurait reconnu le risque du scanner facial avant qu'il ne devienne un sujet d'actualité.

Les preuves empiriques sur ce schéma sont cohérentes : la recherche de McKinsey sur la diversité dans les équipes exécutives montre que les entreprises dans le quartile supérieur de diversité de genre et d'origine ethnique ont entre 25 % et 36 % plus de chances de surperformer en rentabilité leurs pairs. Pas à cause des quotas, mais parce que l'hétérogénéité des perspectives élargit l'espace des scénarios que l'équipe peut anticiper. Sora avait précisément besoin de cela : la capacité d'anticiper comment elle serait utilisée par des personnes qui ne ressemblent pas à celles qui l'ont construite.

Une alliance d'un milliard de dollars qui n’a jamais transféré un dollar

L'annulation de l'alliance avec Walt Disney mérite une attention séparée, car ce n'est pas un dommage collatéral de la fermeture de Sora : c'est une preuve de la fragilité structurelle de certaines réseaux d'affaires qui se construisent sur des signaux de statut plutôt que sur de la valeur partagée.

Le contrat, annoncé en décembre 2025, promettait de licencier plus de 200 personnages de Disney pour des vidéos générées avec Sora et d'élargir les expériences sur Disney+. Selon des sources citées par Al Jazeera, aucune transaction financière n'a été finalisée. L'alliance était, en ses propres termes, exploratoire. Ce qui a été vendu publiquement comme une investissement d'un milliard de dollars a fonctionné en pratique comme un communiqué de presse mutuel.

Cela illustre un schéma que j'observe souvent dans les accords entre des entreprises traditionnelles et des startups de technologie de haut niveau : l'urgence d'associer des marques entraîne des annonces prématurées qui remplacent la diligence opérationnelle. Disney avait besoin de montrer une modernité technologique à ses actionnaires. OpenAI avait besoin de crédibilité de contenu premium auprès des siens. Aucune des deux parties n'avait d'incitations immédiates à freiner l'annonce et à se demander si l'infrastructure technique, légale et éthique du produit était suffisamment solide pour soutenir l'accord.

Le résultat est un réseau qui se brise à la première tension réelle, exactement comme le prédit la théorie du capital social lorsque les connexions sont transactionnelles et non ancrées dans un échange authentique de valeur. La déclaration ultérieure de Disney, qui a souligné les enseignements tirés et son intention de continuer à explorer avec d'autres plateformes, est l'articulation diplomatique de cela : le réseau n'avait pas de racines.

Ce que le pivot vers la robotique révèle sur l'économie du calcul

OpenAI a récemment conclu un tour qui élève sa valorisation à 730 milliards de dollars et a une introduction en bourse à l'horizon. Dans ce contexte, la décision de rediriger l'équipe de Sora vers la recherche de simulation de mondes pour la robotique n'est pas un repli. C'est un signal sur où se trouvent les vrais marges.

Les applications de vidéo générative de consommation de masse ont un problème économique structurel : le coût marginal de générer chaque seconde de vidéo de haute qualité est élevé, l'utilisateur de consommation paie peu ou abandonne rapidement, et la surface de responsabilité légale est énorme. Les 2,1 millions de dollars de revenus de Sora tout au long de sa vie en tant que produit ne couvrent pas le coût de calcul d'un modèle qu'OpenAI a décrit comme potentiellement équivalent à un "moment G-35" en vidéo. L'arithmétique n'a jamais fonctionné pour le segment de consommation massive.

La robotique et la simulation d'environnements physiques, en revanche, ont une logique différente. Les contrats sont avec des entreprises, les tickets sont plus élevés, la tolérance réglementaire à l'erreur est différente et la propriété intellectuelle du modèle formé peut être défendue plus efficacement. Pour une entreprise qui opère avec des pertes significatives tout en s'échelonnant vers une valorisation de près de trois quarts de billon de dollars, ce mouvement correspond à ce que les investisseurs institutionnels avant l'introduction en bourse ont besoin de voir : concentration des ressources dans des segments avec un retour projeté.

Ce qui m'intéresse ici est une autre dimension du même problème. La recherche en robotique et simulation physique a des implications distributives énormes : quels travaux seront automatisés, à quelle vitesse, dans quelles géographies et pour quels segments de revenus. Si l'équipe qui conçoit ces systèmes réplique l'homogénéité de celle qui a conçu les "cameos" de Sora, le risque n'est pas seulement éthique. C'est un risque pour le modèle commercial, car les systèmes qui n'anticipent pas comment ils seront rejetés ou réglementés par les communautés qu'ils affectent ont une durée de vie plus courte et un coût politique plus élevé.

Le coût réel de concevoir depuis une seule perspective

La fermeture de Sora n'est pas l'histoire d'une technologie ratée. Le modèle sous-jacent, Sora 2, continue d'opérer derrière le mur de paiement de ChatGPT. La technologie a survécu. Ce qui n'a pas survécu, c'est la décision de la transformer en un réseau social de consommation massive sans les mécanismes d'anticipation et de gouvernance que ce contexte exige.

Chacun des points de rupture documentés, le scanner de visages, la gestion de l'accord Disney, l'équation des revenus versus calcul, la baisse de la rétention, a une lecture en termes de quelles perspectives étaient absentes lors des décisions qui ont produit ces résultats. Je ne prétends pas qu'une équipe plus diversifiée aurait garanti le succès de Sora. Je signale que l'absence de diversité de perspectives dans les équipes de conception de l'IA a des coûts mesurables : coûts juridiques, coûts de réputation, coûts de rétention d'utilisateurs et coûts d'opportunité dans des accords qui échouent avant de générer un centime.

Les équipes directrices qui vont prendre des décisions sur la robotique, la simulation et les prochains grands mouvements d'OpenAI héritent du même processus décisionnel qui a produit Sora. La question n'est pas de savoir si la technologie est suffisamment bonne. La technologie d'OpenAI est, par toute mesure, impressionnante. La question opérationnelle est de savoir si les personnes dans la salle lors de la conception de ces systèmes peuvent voir avec suffisamment d'amplitude les contextes dans lesquels ces systèmes vont vivre.

La prochaine fois que le conseil d'administration d'une entreprise technologique se réunira pour évaluer le lancement d'un produit à grande échelle, la composition de cette table n'est pas un détail démographique décoratif. C'est une variable de risque avec un impact direct sur le flux de trésorerie. Les équipes dont tous les membres partagent les mêmes antécédents, les mêmes réseaux et les mêmes références culturelles ne sont pas plus cohésives ni plus efficaces : elles sont plus fragiles, car leurs angles morts sont collectifs et personne dans la salle ne peut les signaler.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer