OpenAI vuole pagare il conto del caos che ha creato
Il 6 aprile 2026, OpenAI ha pubblicato un documento di 13 pagine intitolato Politica Industriale per l'Era dell'Intelligenza: Idee per Mettere le Persone al Primo Posto. In esso, la compagnia che guida lo sviluppo verso la superintelligenza propone di aumentare le tasse sui profitti di capitale, tassare i redditi generati da lavoro automatizzato, sperimentare una settimana lavorativa di quattro giorni senza riduzione salariale e creare un fondo di ricchezza pubblica affinché tutti i cittadini statunitensi possano partecipare alla crescita economica dell'IA. Non è poca cosa. E non proviene da un senatore progressista né da un think tank sindacale: viene dall'azienda che, per sua stessa ammissione, sta costruendo sistemi capaci di superare gli esseri umani più intelligenti anche quando quegli umani sono assistiti dall'IA.
La paradossalità è strutturale, non accidentale. E dal punto di vista del design del portafoglio aziendale, rivela qualcosa di più scomodo di una contraddizione politica.
Il documento che nessuno si aspettava da Silicon Valley
Ciò che più colpisce del testo non è il suo contenuto, ma il suo autore. OpenAI non è un'ONG né un laboratorio accademico. È un'azienda che compete direttamente per catturare il valore economico che le proprie proposte di politica pubblica tenterebbero di ridistribuire. Il CEO Sam Altman riconosce nel documento di aver conversato con un senatore repubblicano di alto rango che ha fatto notare qualcosa che difficilmente si sente in quello spettro politico: il capitalismo ha sempre dipeso da un equilibrio tra lavoro e capitale, e l'IA sta rompendo quell'equilibrio in modo accelerato e irreversibile.
Questa frase non è retorica, è un’osservazione operativa su ciò che accade quando una tecnologia sposta la fonte di reddito della maggioranza mentre concentra la redditività in coloro che possiedono l'infrastruttura che la gestisce. La proposta di OpenAI suggerisce di rispondere attraverso una riconfigurazione del sistema fiscale: meno dipendenza dalle tasse sul lavoro — vulnerabili al dislocamento lavorativo — e una maggiore pressione sui profitti aziendali, sulle plusvalenze nei tratti più elevati e sui rendimenti sostenuti alimentati dall'automazione. Inoltre, incentivi affinché le aziende trattengano e riqualifichino i lavoratori, migliorino le coperture sanitarie e pensionistiche, e sperimentino la settimana di quattro giorni legata ai guadagni di produttività.
Non è una proposta da sottovalutare. E il CEO di JPMorgan Chase, Jamie Dimon, ha giunto a conclusioni simili per conto suo: prevede che l'IA ridurrà la settimana lavorativa a tre giorni e mezzo e ha richiesto un sistema di incentivazione pubblico e privato per la riconversione dei lavoratori e la pensione anticipata. Quando i leader dei due settori più influenti del capitalismo moderno — tecnologia e finanza — convergono nello stesso diagnosticare, vale la pena prendersi sul serio la meccanica dietro la proposta.
La strategia di portafoglio dietro la filantropia politica
Vista da fuori, questo sembra altruismo aziendale. Vista dal design organizzativo, è qualcosa di più calcolato: una manovra di gestione dei rischi sul portafoglio di affari a lungo termine.
OpenAI sa che il suo modello di entrate attuale dipende dall'adozione massiccia delle sue strumenti da parte di aziende e individui. Ma quella adozione massiccia ha un limite politico: se il dislocamento lavorativo genera una reazione legislativa incontrollata, il risultato può essere una regolamentazione punitiva, tariffe sui servizi di IA o restrizioni d'uso che nessuna azienda del settore desidererebbe. Proponendo essa stessa i termini della ridistribuzione, OpenAI cerca di posizionarsi come l'attore ragionevole che definisce i confini della conversazione prima che lo facciano altri.
Questo ha una logica di portafoglio molto chiara. Il business core di OpenAI — i suoi modelli commerciali, le licenze aziendali, le API — è oggi il motore di cassa che finanzia la corsa verso la superintelligenza. Proteggere quel motore significa evitare che il contesto politico lo affossi. La proposta di politica pubblica funziona, in tal senso, come uno scudo regolatorio per il nucleo delle entrate: se Altman sta già chiedendo di tassare aziende come la sua, è molto più difficile accusarla di evadere la propria responsabilità sociale.
Il problema è che proporre una tassa sui profitti da capitale è facile quando la tua azienda non ha ancora generato i profitti che quella tassa colpirebbe. OpenAI è ancora un'azienda in fase di massiccio investimento, non un generatore stabile di flussi di cassa. La proposta ha un costo politico quasi nullo per i suoi attuali azionisti e un notevole beneficio narrativo immediato. Questo non la rende necessariamente ipocrita, ma la rende comunque incompleta come architettura fiscale.
La settimana di quattro giorni come esperimento di portafoglio, non come concessione lavorativa
C'è un elemento nel documento che merita un'analisi separata: la proposta di sperimentare una settimana lavorativa di quattro giorni senza riduzione salariale, legata agli aumenti di produttività che genera l'IA. Sulla carta, sembra una concessione lavorativa generosa. Dal punto di vista del design degli incentivi aziendali, è un'altra cosa.
Se un'azienda adotta l'IA e i suoi dipendenti producono l'equivalente di cinque giorni in quattro, il quarto giorno libero non costa nulla al datore di lavoro in termini di output. Costa in struttura salariale fissa solo se quella produttività non si materializza. Per questo il documento non propone la settimana di quattro giorni come mandato universale, ma come pilota condizionato a metriche di produttività. È un esperimento di validazione, non una concessione. L'azienda trattiene il lavoratore, riduce la frizione politica e mantiene o aumenta l'output. Se il pilota fallisce, lo scarta. Se funziona, lo scala.
Questo è esattamente come dovrebbe essere eseguita un'innovazione interna ben progettata: con autonomia limitata, metriche di apprendimento proprie e senza estendere i criteri di valutazione dell'operazione matura all'esperimento. Il problema è che la maggior parte delle aziende che adotteranno queste raccomandazioni — se mai diventeranno politiche — non hanno l'infrastruttura di IA né la capacità analitica per misurare quel cambiamento con precisione. Per loro, il pilota potrebbe divenire un costo senza ritorno misurabile.
Il documento di OpenAI assume implicitamente che tutte le aziende cattureranno valore dall'IA al ritmo che OpenAI stessa prevede. Questa è un’assunzione di portafoglio che non è convalidata dal mercato.
Il portafoglio di OpenAI ha un problema di legittimità, non di idee
Le proposte del documento non sono tecnicamente assurde. Tassare il capitale anziché il lavoro quando il lavoro è automatizzato ha una logica fiscale coerente. Creare fondi di ricchezza pubblica con i ritorni dall'IA è un'idea che economisti di diversi orientamenti hanno esplorato per anni. La riqualificazione massiva dei lavoratori è una necessità operativa, non solo etica.
Ma c'è un problema di governance nel design di tutto ciò. OpenAI è contemporaneamente il sviluppatore della tecnologia dirompente, l'autore del diagnosticare sul danno che causa e il proponente del rimedio regolatorio. Quella concentrazione di ruoli in un singolo attore — senza pesi istituzionali indipendenti che convalidino l'analisi — è esattamente il tipo di collo di bottiglia organizzativo che indebolisce qualsiasi proposta di politica pubblica, indipendentemente dai suoi meriti tecnici.
L'amministrazione Trump ha firmato nel dicembre 2025 un'ordinarie esecutiva per ridurre la regolamentazione governativa sull'IA. OpenAI opera in quel contesto di deregolamentazione mentre pubblica un progetto per auto-regolarsi e regolare i suoi concorrenti. Il inquadramento bipartisan del documento — citando sia repubblicani che costruendo consenso con figure dell'establishment finanziario come Dimon — suggerisce una lettura politica sofisticata del momento. Ma nessuna abilità narrativa risolve il problema fondamentale: un'azienda non può essere allo stesso tempo il principale beneficiario di un processo e l'arbitro più affidabile delle sue conseguenze.
La viabilità del portafoglio a lungo termine di OpenAI dipende meno dalle sue proposte fiscali e più dal fatto che il mercato e i regolatori accettino quel ruolo duale. Finora, non ci sono segnali chiari che lo faranno.










