L'IA generativa si scontra con il limite che nessun dirigente vuole vedere
C'è una scommessa che si ripete in quasi ogni consiglio di amministrazione che da due anni parla di intelligenza artificiale: che la tecnologia permetterà a qualsiasi professionista di svolgere il lavoro di qualsiasi altro, con una qualità sufficiente a giustificare la riorganizzazione dei talenti. È una scommessa che si legge bene sulla carta. Ed è, secondo nuove evidenze sperimentali, parzialmente sbagliata in un modo che ha conseguenze dirette sulla strategia delle risorse umane.
Un esperimento sul campo condotto presso IG, società fintech del Regno Unito, con l'analisi di ricercatori della Harvard Business School, della Stanford University e dello Stanford Digital Economy Lab, ha messo alla prova esattamente questa ipotesi. I risultati rivelano un pattern che i leader che assumono una totale fungibilità della propria forza lavoro non possono permettersi di ignorare.
L'esperimento che ha esposto il divario invisibile
Il disegno sperimentale era deliberatamente semplice. Tre gruppi di dipendenti hanno ricevuto lo stesso compito: prima, concettualizzare un articolo per il sito web aziendale (struttura, parole chiave, punti centrali); poi, realizzare l'articolo completo. I gruppi corrispondevano a distanze di conoscenza diverse: analisti web abituati a creare quel tipo di contenuto, specialisti di marketing che lavorano in funzioni adiacenti ma non scrivono articoli, e specialisti tecnologici (data scientist e sviluppatori software) senza alcun legame con la creazione di contenuti. Alcuni partecipanti avevano accesso agli strumenti di IA generativa di IG; altri, no.
I risultati nella fase di concettualizzazione furono netti. Senza IA, gli analisti web superarono chiaramente gli altri due gruppi. Con l'IA, i tre gruppi produssero concettualizzazioni statisticamente indistinguibili. Lo strumento agì come perfetto equalizzatore per il lavoro astratto e strutturato, quello che segue un modello ragionevole che anche un non esperto può valutare. Fino a questo punto, la promessa della tecnologia fu mantenuta.
Nella fase di esecuzione, la storia cambiò. Gli specialisti di marketing dotati di IA riuscirono a produrre articoli di qualità comparabile a quella degli analisti web. Gli specialisti tecnologici, con accesso esattamente agli stessi strumenti, non ci riuscirono. Le interviste successive all'esperimento rivelarono il meccanismo: i professionisti della tecnologia mancavano del modello mentale per giudicare la qualità dell'output generato. Un data scientist eliminò le call to action perché le riteneva superflue. Un altro accorciò gli articoli al di sotto della soglia ottimale per la SEO perché preferiva la brevità. Uno ammise, con una franchezza rara: "Ho aggiunto cose a caso per farlo sembrare più marketing". Non era mancanza di capacità tecnica. Era distanza di dominio.
Gli autori denominarono questo fenomeno "effetto muro dell'IA generativa": la soglia oltre la quale lo strumento non riesce più a colmare il divario tra l'esperto e il non esperto, indipendentemente da quanto sia sofisticato.
Ciò che il muro rivela su come gestiamo la conoscenza
Il risultato più scomodo non è nei dati dell'esperimento. È nella conclusione che se ne ricava per l'architettura organizzativa: per anni, molte aziende hanno confuso la competenza tecnica con la conoscenza di dominio. E l'IA generativa le stava aiutando a sostenere questa confusione.
Gli specialisti tecnologici nell'esperimento non fallirono perché non sapevano usare gli strumenti. Fallirono perché non avevano i criteri per valutare se l'output fosse buono. La differenza tra chi usa l'IA per creare contenuti di marketing con efficacia e chi non riesce a farlo non risiede nell'interfaccia né nel prompt. Risiede nel sapere cosa significa un articolo che converte, perché il "tono di vendita" ha valore, quale lunghezza risponde meglio agli algoritmi di ricerca. Quella conoscenza non si trasferisce in uno sprint di formazione sull'IA.
Ciò che l'esperimento documenta, in termini organizzativi, è che l'IA generativa opera efficacemente su compiti che seguono una logica di astrazione strutturata: abbozzare, classificare, organizzare, generare opzioni all'interno di un framework. In questi compiti, l'input dell'utente può essere minimo perché lo strumento dispone di sufficiente struttura per funzionare. L'esecuzione di alta qualità, invece, richiede ciò che i ricercatori chiamano conoscenza tacita: i micro-giudizi che un professionista compie in modo automatico su tono, enfasi, pubblico e intenzione strategica, e che è impossibile delegare a uno strumento se chi lo utilizza non li possiede internamente.
Questo ha un'implicazione diretta per il modo in cui i team dirigenziali stanno pensando al ritorno dei loro investimenti in IA. Se un'azienda implementa strumenti sofisticati aspettandosi che la propria forza lavoro tecnica o amministrativa possa assorbire lavoro che prima apparteneva a specialisti di marketing, comunicazione o design, il risultato probabile non è efficienza, bensì un output degradato che nessuno nella catena ha le conoscenze per rilevare. Il costo non appare in una metrica di produttività immediata. Appare sei mesi dopo, quando la qualità dei contenuti è calata, la SEO si è deteriorata e nessuno riesce a indicare esattamente dove si è verificato il problema.
L'errore di talento che l'efficienza nasconde
C'è una dinamica organizzativa sottostante che la ricerca non nomina esplicitamente, ma che l'esperimento illustra con precisione: la tendenza dei leader a progettare strategie di talento seguendo la logica della riduzione dei costi, anziché quella della distanza di conoscenza.
Quando un'azienda decide che, con l'IA, può riassegnare uno sviluppatore software alla produzione di contenuti di marketing, quella decisione generalmente non passa attraverso un'analisi di quanto know-how di dominio separa le due funzioni. Passa attraverso un foglio di calcolo che mostra le ore disponibili e un budget che vuole ottimizzare. Il problema non è la logica finanziaria; il problema è che quella logica finanziaria opera su presupposti di fungibilità che l'esperimento di IG ha appena falsificato.
Gli autori dello studio propongono una distinzione utile per i team dirigenziali: l'IA può facilitare la mobilità tra funzioni adiacenti, dove esiste una base di conoscenza condivisa, ma non tra funzioni distanti. Un coordinatore di marketing che migra verso la creazione di contenuti possiede l'impalcatura concettuale per valutare l'output generato e raffinarlo. Uno sviluppatore software che compie lo stesso movimento non la possiede, e gli strumenti disponibili non gliela trasferiscono. Questa differenza dovrebbe essere il cardine di qualsiasi decisione di ridistribuzione prima che si trasformi in un problema visibile.
La seconda implicazione, meno ovvia, riguarda dove le aziende investono i propri budget di formazione. La tendenza dominante è stata quella di formare i team sull'uso degli strumenti di IA: come strutturare i prompt, come iterare, come integrare gli output nei flussi di lavoro. Questo è necessario, ma insufficiente. Lo studio suggerisce che il vero collo di bottiglia non è la competenza tecnica con lo strumento, bensì la conoscenza di dominio che consente di giudicare se l'output è buono. Investire nel primo aspetto senza investire nel secondo equivale a costruire velocità senza direzione.
Lo studio apre anche una lettura più strutturale: nella misura in cui l'IA democratizza la concettualizzazione e l'ideazione, il peso del valore si sposta verso l'esecuzione di alta qualità. E quella esecuzione continuerà a dipendere dalla conoscenza accumulata, non dalla sofisticazione dell'interfaccia. I leader che lo comprenderanno prima riorganizzeranno di conseguenza i loro investimenti nel talento. Quelli che non lo capiranno continueranno a misurare l'impatto dell'IA in metriche di adozione, mentre l'output reale si deteriora silenziosamente.
La maturità di un team dirigenziale si misura, tra le altre cose, dalla capacità di costruire organizzazioni in cui la conoscenza fluisce in modo deliberato e in cui nessun risultato critico dipende dal fatto che una singola persona — o un singolo strumento — lo sostenga. Ciò richiede di mappare con onestà cosa sa fare ciascuna funzione, quanto è distante dalle altre e quanto è pronta a collaborare con sistemi che amplificano ciò che già esiste, ma non possono creare dal nulla ciò che non c'è. Le organizzazioni che riusciranno a costruire quella mappa e ad agire di conseguenza non avranno bisogno che un singolo dirigente le sostenga. Avranno già costruito il sistema che le fa crescere da sole.










