La velocità che nessun team umano può mantenere
Andrej Karpathy, cofondatore di OpenAI ed ex direttore dell’IA in Tesla, ha pubblicato a marzo del 2026 un repository open source chiamato autoresearch. Il meccanismo è ingannevolmente semplice: un agente di intelligenza artificiale riceve un obiettivo in linguaggio naturale, propone modifiche a un file di addestramento, esegue cicli di cinque minuti su una GPU NVIDIA H100, misura i risultati rispetto a una metrica fissa e ripete il processo senza intervento umano fino a quando qualcuno non lo ferma. In due giorni, il sistema ha completato 700 esperimenti. In otto ore, 100. Il repository ha accumulato 8.000 stelle su GitHub in pochi giorni.
Prima di parlare di tecnologia, è importante discutere di economia operativa. Una PMI che desidera ottimizzare un proprio modello linguistico affida il lavoro a un team di due o tre data scientist. Questo team può eseguire, con un po’ di fortuna, dieci o quindici variazioni alla settimana, se gestisce bene i tempi di calcolo, la documentazione e le riunioni di revisione. Autoresearch esegue cento variazioni mentre quel team dorme. Non si tratta di un miglioramento incrementale della produttività: è un cambiamento di ordine di grandezza nella velocità di iterazione e gli ordini di grandezza raramente vengono assorbiti dai modelli di business esistenti.
Quello che Karpathy ha costruito non è un prodotto commerciale né una piattaforma aziendale. È una dimostrazione di 630 righe di codice che prova un principio: i cicli di sperimentazione autonomi, delimitati e misurabili scalano in un modo che il lavoro umano sequenziale non può eguagliare. Questo rende la notizia rilevante per una PMI, anche se non ha mai addestrato un modello linguistico in vita sua.
Il pattern che importa non è nei modelli di IA
L'errore più costoso che può commettere un dirigente di una PMI leggendo questa storia è concludere che si tratta di un avanzamento per laboratori di ricerca o per aziende con budget di calcolo a otto cifre. La logica del loop autonomo di Karpathy, che propone un cambiamento, lo esegue, misura il risultato rispetto a una metrica oggettiva e commette l'avanzamento in un repository di versioni, è trasferibile quasi senza modifiche a dozzine di processi che oggi consumano tempo di personale qualificato in aziende di qualsiasi dimensione.
Pensiamo a un'agenzia di marketing di performance che oggi dedica tre giorni a settimana alla costruzione di varianti di annunci, eseguendole in campagne pilota, consolidando i dati in un cruscotto e decidendo cosa scalare. O a una società di servizi finanziari che rivede manualmente centinaia di documenti per rilevare anomalie prima di presentare un rapporto settimanale al cliente. O a una azienda di e-commerce che regola prezzi e posizionamento dei prodotti seguendo regole che un analista junior applica con un foglio di calcolo. In tutti questi casi, la struttura del lavoro è identica a quella di autoresearch: c’è una metrica oggettiva, ci sono variabili che possono essere modificate in modo sistematico e c’è un ciclo di feedback che oggi dipende da un umano per chiudersi.
Il differenziale competitivo non sarà avere accesso alla tecnologia, ma essere i primi a identificare quale processo proprio ha una metrica sufficientemente chiara da automatizzare il ciclo. Le aziende che oggi non possono nominare in trenta secondi quale sia il loro processo più ripetitivo con un'uscita misurabile stanno operando con un'opacità che il mercato non perdonerà quando il loro concorrente potrà farlo.
L'analisi di LeapLytics, citata nei report sul progetto, punta dritto a questo: i team di intelligence di business spendono una frazione sproporzionata della loro capacità in compiti che hanno metriche chiare ma che nessuno ha ufficialmente formalizzato come ciclo automatizzabile. Report, rilevazione di anomalie, qualificazione di lead. Processi in cui l'umano non apporta un criterio editoriale in ogni iterazione, ma esegue semplicemente un protocollo già implicito nelle sue decisioni.
Ciò che viene eliminato per primo cambia tutto il resto
C’è una trappola strutturale nel modo in cui la maggior parte delle PMI pianifica di adottare questi strumenti: li affrontano come uno strato aggiuntivo sulla loro operazione esistente. Assumono qualcuno per esplorare l'IA, chiedono un pilota, aggiungono un budget per gli strumenti e continuano a eseguire il processo manuale in parallelo come rete di sicurezza. Il risultato è che raddoppiano il costo durante il periodo di transizione e non eliminano mai la frizione originale.
La logica di autoresearch suggerisce il contrario. Il progetto funziona perché è costruito su restrizioni deliberate: un solo file modificabile, addestramenti di esattamente cinque minuti, una sola metrica di valutazione. Karpathy non ha cercato di replicare la complessità di un laboratorio di ricerca completo. Ha eliminato tutto ciò che non era necessario affinché il ciclo funzionasse, e quella eliminazione è ciò che rende possibile la velocità.
Per una PMI, la domanda operativa non è quanta IA aggiungere, ma quali variabili del processo attuale possono essere fissate, quali variabili rimangono aperte all'iterazione e quale è l'unica metrica contro la quale si misura il progresso. Questa architettura di restrizioni è ciò che trasforma un processo caotico in un ciclo scalabile. E questa architettura non richiede un budget di ricerca: richiede disciplina analitica per diagnosticare il processo prima di automatizzarlo.
La comunità che si è formata attorno al repository di Karpathy ha immediatamente iniziato a esplorare varianti con più agenti: uno che genera ipotesi, un altro che esegue gli esperimenti, un terzo che sintetizza i risultati. Quel pattern di specializzazione modulare è esattamente ciò che le PMI dovrebbero osservare, perché replica la struttura di un team umano efficiente, ma senza i colli di bottiglia di coordinamento che aumentano i costi e rallentano i veri team umani.
La leadership che costruisce domanda propria, non quella che ottimizza briciole
La narrativa dominante attorno a strumenti come autoresearch tende a inquadrare in termini di efficienza: fare la stessa cosa più velocemente e a minor costo. Questa lettura è corretta ma insufficiente e porta i dirigenti a implementare questi strumenti per ridurre i costi senza cambiare la proposta di valore che offrono al mercato.
L'opportunità più profonda è diversa. Una PMI che può eseguire cento variazioni della propria proposta di valore nel tempo in cui il suo concorrente prova due non opera solo con maggiore efficienza: opera con un tasso di apprendimento che le consente di trovare combinazioni che nessun attore del mercato ha ancora esplorato. La velocità di iterazione, quando è accoppiata a una metrica che misura il valore reale per il cliente, diventa il meccanismo per scoprire la domanda che nessuno sta servendo.
Questo non avviene automaticamente. Ciò accade quando il dirigente comprende che lo strumento non vale nulla senza una ipotesi iniziale ben costruita su quale variabile del processo genera il maggiore impatto sull'esperienza del cliente. Karpathy fornisce il motore; la strategia dell'azienda decide il destino. I leader che continueranno a bruciare budget in piloti di IA senza risultati sono coloro che si avvicinano a questi strumenti cercando scorciatoie per competere nello stesso campo in cui stanno già perdendo. La leadership che costruisce posizioni durature è quella che utilizza la velocità di sperimentazione per identificare e occupare lo spazio che il mercato non sa ancora di aver bisogno.









