Sora è morta per gli stessi punti ciechi che l'hanno creata

Sora è morta per gli stessi punti ciechi che l'hanno creata

OpenAI ha chiuso Sora sei mesi dopo il suo lancio, citando risorse scarse e deepfake, ma il problema principale è stato un team che non ha previsto i rischi.

Isabel RíosIsabel Ríos25 marzo 20267 min
Condividi

Sora è morta per gli stessi punti ciechi che l'hanno creata

Il 24 marzo 2026, OpenAI ha pubblicato due parole su X: "Stiamo dicendo addio a Sora." Con questa frase, ha chiuso un'applicazione che sei mesi prima aveva scalato i vertici delle classifiche di Apple, superando il milione di download più rapidamente di ChatGPT e siglando un'alleanza da un miliardo di dollari con Walt Disney. La caduta è stata rapida quanto il successo: i download sono crollati del 45% entro gennaio 2026 e i ricavi totali della piattaforma hanno raggiunto solo 2,1 milioni di dollari, una cifra che difficilmente giustifica l'infrastruttura informatica richiesta dal modello.

L'analisi ufficiale combina scarsità di chip, un reinteresse verso la robotica e la simulazione di mondi fisici, e il carico operativo di mantenere una rete sociale di video generativa. Tutto vero. Ma nessuno di questi fattori era imprevedibile a settembre 2025, quando Sora è stata lanciata al pubblico. Non è stata la tecnologia a fallire. Ha fallito la mappa cognitiva con cui sono state prese le decisioni.

Un prodotto non progettato per gli utenti principali

Sora è nata con una funzione chiamata "cameos": gli utenti potevano scansionare volti da inserire in video generati dall'intelligenza artificiale. La funzione è stata rinominata "characters" dopo una causa legale, ma il problema di fondo non aveva una soluzione cosmetica. In poche settimane, la piattaforma è stata utilizzata per produrre video non autorizzati di Martin Luther King Jr. e Robin Williams, generando reazioni pubbliche da parte delle loro famiglie. OpenAI ha risposto con restrizioni più severe sulla proprietà intellettuale, il che ha eroso esattamente la libertà creativa che aveva attratto i primi utenti.

Questo ciclo ha un nome tecnico nella gestione del prodotto: falla di anticipazione di uso avverso. È solitamente sintomo di un problema specifico nell'architettura del team di design. Quando le persone che costruiscono uno strumento condividono lo stesso profilo socioeconomico, culturale ed esperienziale, tendono a modellare il comportamento dell'utente su se stesse. Non per negligenza, ma perché è l'unico riferimento disponibile nella stanza. Un team con accesso a prospettive diverse, comprese le comunità storicamente colpite dalla sorveglianza tecnologica o dalla manipolazione dell'immagine, avrebbe riconosciuto il rischio dello scanner di volti prima che diventasse una notizia.

Le evidenze empiriche su questo modello sono coerenti: la ricerca di McKinsey sulla diversità nei team esecutivi mostra che le aziende nel quartile superiore per diversità di genere e origine etnica hanno tra il 25% e il 36% di probabilità in più di superare in redditività le loro concorrenti. Non per effetto di quote, ma perché la varietà di prospettive amplia lo spazio degli scenari che il team può anticipare. Sora aveva esattamente bisogno di questo: la capacità di prevedere come sarebbe stata usata da persone che non assomigliavano a quelle che l'hanno costruita.

Un'alleanza da un miliardo di dollari che non ha mai trasferito un dollaro

La cancellazione dell'alleanza con Walt Disney merita attenzione separata, perché non è un danno collaterale della chiusura di Sora: è prova della fragilità strutturale di alcune reti commerciali che si costruiscono su segnali di status piuttosto che su valore condiviso.

L'accordo, annunciato nel dicembre 2025, prometteva di licenziare oltre 200 personaggi Disney per video generati con Sora e di ampliare le esperienze su Disney+. Secondo le fonti citate da Al Jazeera, non è stata completata alcuna transazione finanziaria. L'alleanza era, nei suoi stessi termini, esplorativa. Ciò che è stato venduto pubblicamente come un investimento da un miliardo di dollari ha operato praticamente come un comunicato stampa reciproco.

Questo illustra un modello che osservo frequentemente negli accordi tra corporazioni tradizionali e startup tecnologiche di alto profilo: l'urgenza di associare i marchi genera annunci prematuri che sostituiscono la dovuta diligenza operativa. Disney aveva bisogno di segnalare modernità tecnologica ai suoi azionisti. OpenAI aveva bisogno di credibilità di contenuto premium per i suoi. Nessuna delle due parti aveva incentivi immediati per fermare l'annuncio e chiedere se l'infrastruttura tecnica, legale ed etica del prodotto fosse sufficientemente solida per sostenere l'accordo.

Il risultato è una rete che si rompe alla prima tensione reale, esattamente come prevede la teoria del capitale sociale quando le connessioni sono transazionali e non sono ancorate in un scambio genuino di valore. L'argomentazione successiva di Disney, che ha enfatizzato l'apprendimento ottenuto e la sua intenzione di continuare a esplorare con altre piattaforme, è l'articolazione diplomatica di esattamente questo: la rete non aveva radici.

Cosa rivela il pivot verso la robotica sull'economia del calcolo

OpenAI ha appena chiuso un giro che eleva la sua valutazione a 730 miliardi di dollari e ha un'offerta pubblica iniziale all'orizzonte. In questo contesto, la decisione di reindirizzare il team di Sora verso la ricerca sulla simulazione del mondo per la robotica non è un ritiro. È un segnale su dove si trovano i margini reali.

Le applicazioni di video generativo di consumo di massa presentano un problema economico strutturale: il costo marginale per generare ogni secondo di video di alta fedeltà è elevato, l'utente finale paga poco o abbandona rapidamente, e la superficie di responsabilità legale è enorme. I 2,1 milioni di dollari di ricavi di Sora durante tutta la sua vita come prodotto non si avvicinano a coprire il costo computazionale di un modello che OpenAI ha descritto come potenzialmente equivalente a un "momento G-35" nel video. L'aritmetica non ha mai funzionato per il segmento di consumo di massa.

La robotica e la simulazione di ambienti fisici, invece, hanno una logica diversa. I contratti sono con aziende, i ticket sono maggiori, la tolleranza regolatoria all'errore è differente e la proprietà intellettuale del modello addestrato può essere difesa più efficacemente. Per un'azienda che opera con perdite significative mentre scala verso una valutazione di quasi un quarto di trilione di dollari, questo movimento risponde a ciò che gli investitori istituzionali pre-IPO necessitano di vedere: concentrazione di risorse in segmenti con ritorni proiettabili.

Ciò che mi interessa sottolineare qui è un'altra dimensione dello stesso problema. La ricerca sulla robotica e la simulazione fisica ha enormi implicazioni distributive: quali lavori saranno automatizzati, a che velocità, in quali geografie e per quali segmenti di reddito. Se il team che progetta quei sistemi replica l'omogeneità di quello che ha progettato i "cameos" di Sora, il rischio non è solo etico. È un rischio di modello di business, perché i sistemi che non anticipano come saranno respinti o regolati dalle comunità che influenzano hanno una vita utile più corta e un costo politico più elevato.

Il costo reale di progettare da una sola prospettiva

La chiusura di Sora non è la storia di una tecnologia fallita. Il modello sottostante, Sora 2, continua a operare dietro il muro di pagamento di ChatGPT. La tecnologia è sopravvissuta. Ciò che non è sopravvissuto è stata la decisione di trasformarla in una rete sociale di consumo massivo senza i meccanismi di anticipazione e governance che quel contesto richiede.

Ciascuno dei punti di rottura documentati, lo scanner di volti, la gestione dell'accordo Disney, l'equazione ricavi contro calcolo, il crollo della retention, ha una lettura in termini di quali prospettive erano assenti quando sono state prese le decisioni che li hanno prodotti. Non sto sostenendo che un team più diverso avrebbe garantito il successo di Sora. Sto sottolineando che l'assenza di diversità di prospettiva nei team di design dell'IA ha costi misurabili: costi legali, costi reputazionali, costi di retention degli utenti e costi di opportunità in accordi che si disgregano prima di generare un centesimo.

I team dirigenziali che prenderanno decisioni sulla robotica, la simulazione, e i prossimi grandi movimenti di OpenAI erediteranno lo stesso processo decisionale che ha prodotto Sora. La domanda non è se la tecnologia sia sufficientemente buona. La tecnologia di OpenAI è, per qualsiasi parametro, impressionante. La domanda operativa è se le persone nella stanza quando si progettano questi sistemi possano vedere con sufficiente ampiezza i contesti in cui questi sistemi vivranno.

La prossima volta che il consiglio di amministrazione di qualsiasi azienda tecnologica si riunisce per valutare il lancio di un prodotto di ampia portata, la composizione di quella tavola non è un dato demografico decorativo. È una variabile di rischio con impatto diretto sul flusso di cassa. I team in cui tutti i membri condividono gli stessi background, le stesse reti e le stesse referenze culturali non sono più coesi o più efficienti: sono più fragili, perché i loro punti ciechi sono collettivi e nessuno nella stanza può indicarli.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche