Tesla produce i propri chip: l’impatto sui costi dell’intelligenza artificiale
Il 14 marzo 2026, Elon Musk ha pubblicato sei parole su X: "Il progetto Terafab lancia in 7 giorni." Sei parole per annunciare un investimento di 25 miliardi di dollari, una fabbrica progettata per produrre tra 100 e 200 miliardi di chip personalizzati all’anno, e una scommessa che, se gestita correttamente, potrebbe cambiare il modo in cui si calcola il costo dell’addestramento di un modello di intelligenza artificiale.
Non è un’iperbole. È aritmetica.
Perché costruire una fabbrica di chip è una decisione finanziaria, non tecnologica
L'industria dei semiconduttori opera secondo una logica che la maggior parte dei dirigenti al di fuori del settore sottovaluta: il costo marginale di produrre un chip aggiuntivo scende drammaticamente man mano che si scalano i volumi, mentre il costo fisso di ingresso è così elevato che per decenni ha funzionato come una barriera insormontabile. TSMC ha impiegato decenni e centinaia di miliardi di dollari per raggiungere la sua posizione dominante. Samsung ha investito in scala simile. Nessuna azienda privata al di fuori di questo duopolio ha tentato di costruire una capacità di produzione equivalente.
Tesla sta tentando di produrre, da un unico complesso, l’equivalente del 70% della produzione totale attuale di TSMC. L'obiettivo iniziale è 100.000 inizi di wafer al mese, con una roadmap verso un milione al mese. La tecnologia di processo punta ai 2 nanometri, il nodo più avanzato disponibile commercialmente oggi.
Questo non è un progetto di R&S. È una riorganizzazione strutturale dell'economia dei costi di Tesla che, per estensione, influisce sui costi del calcolo per l'intelligenza artificiale a livello globale.
La logica dietro Terafab non scaturisce da un'ambizione tecnologica astratta. Nasce da un calcolo concreto: Tesla ha identificato che anche sotto lo scenario più ottimista dei propri fornitori attuali, l’offerta proiettata non sarebbe stata sufficiente a coprire la domanda generata dal programma Cybercab, la linea di produzione del robot Optimus, il supercomputer Dojo e l'infrastruttura di addestramento di Grok, il modello di xAI. Musk lo ha formulato con una chiarezza inusuale durante l’assemblea annuale degli azionisti: "Anche quando extrapoliamo il miglior scenario possibile per la produzione di chip dai nostri fornitori, non è ancora sufficiente." Quando il miglior scenario possibile rimane insufficiente, l’unica uscita razionale è diventare il proprio fornitore.
Il momento in cui l’infrastruttura smette di essere una spesa e diventa vantaggio
C’è una differenza strutturale tra un'azienda che acquista chip e una che li produce. Non si tratta solo di costi diretti. È una questione di architettura competitiva completa.
Quando Tesla acquista chip da TSMC o Samsung, paga non solo il costo di produzione, ma anche il margine dell'intermediario, le restrizioni di capacità condivise con altri clienti di alto profilo come Apple, Nvidia o Qualcomm e i tempi di ciclo che nessun contratto può eliminare del tutto. Ogni dollaro di margine che TSMC cattura su Tesla è un dollaro che non può essere investito per ridurre il prezzo del veicolo autonomo o del robot industriale.
Con Terafab, quel margine sparisce dal bilancio. Ma ciò che emerge al suo posto è più interessante: la capacità di progettare il chip AI5, la quinta generazione del processore di intelligenza artificiale di Tesla, con specifiche esattamente allineate alle proprie esigenze lavorative. Non chip generici ottimizzati per il mercato. Chip la cui architettura combina elaborazione logica, memoria e imballaggio avanzato in una singola linea di produzione verticalmente integrata. La differenza in efficienza operativa tra un chip progettato specificamente per addestrare modelli di guida autonoma e uno progettato per il mercato generale può tradursi in un risparmio tra il 20% e il 40% nel consumo energetico per ciclo di inferenza, secondo gli standard di settore per ottimizzazioni di nodi dedicati.
Produzione in piccoli lotti nel 2026. Volume nel 2027. Se queste scadenze vengono rispettate, Tesla avrà completato in meno di due anni ciò che alla maggior parte degli attori del settore richiede un decennio.
Il 25% che il CFO non aveva ancora previsto
Qui è dove l’analisi finanziaria diventa più scomoda. Il CFO di Tesla, Vaibhav Taneja, ha riconosciuto durante la presentazione dei risultati del 28 gennaio 2026 che il costo totale di Terafab, stimato in 25 miliardi di dollari, non è completamente incorporato nella cifra di spesa di capitale dichiarata per il 2026, che già supera i 20 miliardi. Ciò significa che il piano di capitale per l’anno era già ambizioso prima di includere il maggiore investimento in infrastruttura che la compagnia ha annunciato.
Questo è il rischio di esecuzione più concreto del progetto. L’industria dei semiconduttori non perdona gli errori di pianificazione. I cicli di costruzione di un impianto di produzione avanzata sono lunghi, il talento specializzato è scarso e le curve di performance dei nuovi processi di produzione sono imprevedibili. Tesla ha iniziato a reclutare progettisti di chip di intelligenza artificiale in Corea del Sud a febbraio 2026, cercando ingegneri per quello che ha descritto come i chip a maggiore volume del mondo. Questo reclutamento, a pochi mesi dal lancio dichiarato, suggerisce che l’organizzazione sta ancora costruendo capacità che normalmente precederebbero l’operazione.
La domanda non è se Terafab sia una buona idea. La domanda è se il ritmo di esecuzione può sostenere le ambizioni del cronoprogramma. E nella produzione di semiconduttori, la distanza tra annuncio e produzione su scala raramente si misura in mesi.
Quando il costo di produrre intelligenza artificiale si avvicina a zero per chi controlla il silicio
C’è un modello che si ripete in ogni settore in cui la tecnologia matura: il costo marginale di produzione crolla per gli attori che controllano la strato di infrastruttura, mentre quelli che dipendono da intermediari rimangono intrappolati in una struttura di costi che non possono ottimizzare.
Apple lo ha fatto con i chip delle serie M, ma solo nel design, non nella produzione. Google ha costruito le sue TPU per addestrare modelli, ma continua a dipendere da fonderie esterne. Amazon ha sviluppato i chip Trainium e Graviton, con la stessa dipendenza. Tesla sta tentando il passo che nessuno di loro ha fatto: controllare sia il design che la produzione.
Se Terafab raggiunge il suo obiettivo di un milione di inizi di wafer mensili, Tesla produrrebbe più chip avanzati di qualsiasi entità privata al di fuori di Taiwan e Corea del Sud. Il costo marginale di aggiungere capacità di calcolo aggiuntiva per addestrare nuove versioni di FSD o per scalare la produzione di Optimus si avvicinerebbe progressivamente al costo variabile puro di energia e materiali, senza il sovraccosto strutturale dei contratti con terzi.
Questo non cambia solo l'economia di Tesla. Cambia il prezzo di riferimento del calcolo di intelligenza artificiale per l'intera industria, perché stabilisce un nuovo pavimento di costi raggiungibile per chi abbia la scala e il capitale per replicare il modello.
I leader che continuano a calcolare la loro strategia di intelligenza artificiale assumendo che il costo del calcolo sia una variabile esogena che non controllano stanno prendendo decisioni su una mappa che è già in fase di ridisegno. Il vantaggio competitivo nei prossimi dieci anni non sarà di chi meglio utilizza i chip disponibili sul mercato, ma di chi avrà costruito l'infrastruttura per produrli al proprio costo marginale.











