Più agenti di IA, più lavoro umano: la paradosso che nessuno aveva previsto

Più agenti di IA, più lavoro umano: la paradosso che nessuno aveva previsto

Automatizzare con agenti di intelligenza artificiale non libera tempo cognitivo: lo redistribuisce. Il CEO di Box lo diagnostica con una precisione sorprendente.

Clara MontesClara Montes5 aprile 20267 min
Condividi

Più agenti di IA, più lavoro umano: la paradosso che nessuno aveva previsto

C'è una promessa che circola in quasi tutte le presentazioni di prodotto di intelligenza artificiale dal 2023: dispiegare sufficienti agenti autonomi e i tuoi team potranno, finalmente, concentrarsi sul lavoro che conta. L'automazione farebbe il resto. Il problema con questa promessa è che presume che il lavoro cognitivo sia un volume fisso che può essere delegato. Non è così.

Aaron Levie, CEO di Box, lo articola con una chiarezza che poche voci del settore si sono permesse: orchestrare più agenti di IA non elimina il carico cognitivo umano, semplicemente lo trasforma. Dove prima c'era lavoro di esecuzione, ora c'è lavoro di supervisione, coordinamento e presa di decisioni su sistemi che operano a velocità che il cervello umano non riesce a seguire in tempo reale. Il risultato netto non è meno sforzo. È uno sforzo diverso, e in molti casi, più impegnativo.

L'illusione dell'amministratore liberato

Quando un'organizzazione dispiega un agente di IA per gestire flussi di documenti, un altro per analizzare contratti e un terzo per monitorare la conformità alle normative, la domanda immediata che dovrebbe porsi il comitato esecutivo non è quanto tempo risparmia ogni agente separatamente. La domanda giusta è chi coordina i tre quando i loro output si contraddicono, quando uno rileva un'anomalia che gli altri due ignorano, o secondo quale criterio umano si decide chi ha ragione.

Questa non è una domanda tecnica. È una domanda di governance, e ricade su persone.

Il modello che descrive Levie ha una meccanica precisa: man mano che il numero di agenti cresce, la complessità della loro orchestrazione cresce in modo non lineare. Due agenti richiedono un'interfaccia di supervisione. Cinque agenti richiedono un protocollo. Venti agenti richiedono qualcosa che somiglia molto a una struttura organizzativa parallela, con le sue gerarchie, regole di escalation e metriche di prestazione. Qualcuno deve progettare quella struttura. Qualcuno deve mantenerla. E quando fallisce, qualcuno deve rendere conto.

Le aziende che stanno scoprendo questo in modo doloroso sono proprio quelle che hanno adottato agenti con la logica di ridurre il personale prima di capire quale lavoro reale stessero eliminando e quale nuovo lavoro stessero creando. Hanno acquistato automazione pensando di acquistare semplicità. Hanno ottenuto scala con complessità integrata.

Ciò che è stato automatizzato non era il problema

Questa è la diagnosi che più disturba i team di prodotto e i comitati di trasformazione digitale: la maggior parte delle attività che gli agenti di IA eseguono con efficienza non erano quelle che generavano i colli di bottiglia più costosi nell'organizzazione.

Gli agenti sono notevolmente bravi a elaborare volumi: classificare documenti, estrarre dati strutturati, redigere bozze sotto modelli conosciuti. Queste attività sono misurabili, ripetibili e facili da valutare. Sono anche, in molti contesti, le attività che i dipendenti avevano già imparato a eseguire rapidamente e con pochi errori. Il lavoro che consuma realmente energia esecutiva, quello che coinvolge giudizio sotto incertezza, negoziazione tra parti con interessi contrapposti o decisioni senza precedenti chiari, quel lavoro non può essere delegato a un agente. Eppure, è proprio quel lavoro che si moltiplica quando ci sono più agenti da supervisionare.

L'azienda che assume agenti di IA per liberare i suoi migliori esecutori finisce, paradossalmente, con quei esecutori dedicati a sorvegliare macchine invece di risolvere problemi di business. Il displacement avviene, ma in direzione opposta a quella promessa.

Questo non implica che l'adozione di agenti sia un errore strategico. Implica che la metrica di successo era mal calibrata fin dall'inizio. Un'azienda che misura il ritorno dei suoi agenti in ore-uomo risparmiate sta misurando l'indicatore sbagliato. La metrica rilevante è quanto del lavoro cognitivo di alto valore è rimasto sbloccato per gli umani, non quanto lavoro di basso valore sia stato assorbito dalle macchine.

Il lavoro che nessuno stava assumendo

C'è un modello di comportamento organizzativo che questa situazione rivela con nettezza. Quando le aziende adottano agenti di IA, il lavoro che dichiarano di voler eliminare è quello operativo e ripetitivo. Ma il lavoro di cui hanno realmente bisogno che qualcuno si occupi, e che nessuno ha saputo articolare chiaramente fino a quando il sistema non fallisce, è il lavoro di mantenere coerenza tra decisioni distribuite in tempo reale.

Quel lavoro non ha nome in alcun organigramma. Non è previsto come funzione specifica. Eppure, quando una rete di agenti prende cento micro-decisioni all'ora per conto dell'azienda, qualcuno deve garantire che queste decisioni siano coerenti tra loro, che non contraddicano la politica commerciale, che non espongano l'organizzazione a rischi normativi e che, quando il sistema commette un errore, questo errore non si sia propagato cento volte prima che qualcuno lo rilevi.

Le organizzazioni che stanno gestendo questo con maggiore solidità non sono quelle che hanno dispiegato più agenti per prime. Sono quelle che hanno investito tempo per mappare quali decisioni potessero essere autonome e quali richiedessero intervento umano prima di automatizzarle, non dopo. La distinzione suona ovvia scritta così. Nella pratica, sotto la pressione dei cicli di adozione e degli impegni pubblici di trasformazione digitale, quella distinzione viene sistematicamente posposta.

Levie non sta argomentando contro gli agenti di IA. Sta sottolineando che la promessa di liberazione cognitiva presuppone un modello di lavoro che non corrisponde a come operano le organizzazioni con responsabilità reali. Il lavoro cognitivo non scompare quando si automatizza l'esecuzione: migra verso l'alto nella catena decisionale, dove le conseguenze di un errore sono maggiori e i tempi per correggerlo sono più brevi.

Il vero lavoro che le aziende stanno assumendo

Il successo o il fallimento delle strategie di agenti di IA nei prossimi due anni non dipenderà da quanti agenti un'azienda possa dispiegare né dalla sofisticazione tecnica della sua architettura. Dipenderà da se i team dirigenziali hanno compreso in tempo che ciò di cui le loro organizzazioni avevano bisogno non era automazione delle attività, ma capacità di prendere decisioni coerenti a maggiore velocità e con minore attrito interno.

Questa è la necessità profonda che si cela dietro l'adozione massiccia di agenti. Non è efficienza operativa. È velocità di decisione con controllo. E questo problema non può essere risolto da nessun agente da solo. Lo risolve un'architettura organizzativa che sappia cosa delegare, cosa trattenere e chi risponde quando il sistema autonomo prende la direzione sbagliata.

Le aziende che assumono agenti per risolvere il primo problema, l'efficienza, e trascurano il secondo, la governance delle decisioni distribuite, scopriranno di aver ampliato la loro capacità di commettere errori prima di ampliare la loro capacità di correggerli.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche