Perché il 91% delle aziende adotta l'IA senza sapere quali dati sta consegnando
L'intelligenza artificiale generativa è arrivata nella maggior parte delle organizzazioni non attraverso il reparto tecnologico, ma dalla porta sul retro delle applicazioni di produttività. Microsoft 365 Copilot, Gemini, gli assistenti integrati nelle piattaforme di collaborazione: questi strumenti sono stati attivati in ambienti aziendali dove i dipendenti lavoravano già, e con ciò è iniziato un esperimento silenzioso i cui termini nessuno aveva del tutto negoziato.
Il problema non risiede nei modelli linguistici. Risiede in ciò che quei modelli trovano quando si connettono a un'organizzazione reale.
Secondo il rapporto di Huble sulla preparazione dei dati per l'IA, solo l'8,6% delle aziende si ritiene completamente pronta a operare con l'intelligenza artificiale. Il restante 91% si trova in qualche punto tra la sperimentazione e lo stallo, nonostante abbia impegnato budget, tempo e reputazione interna in progetti di adozione. Deloitte, nel suo rapporto 2026 sullo stato dell'IA in azienda, rileva che due terzi delle organizzazioni dichiarano guadagni di produttività, ma documenta anche deficit persistenti in infrastrutture, gestione dei dati, talenti e controllo del rischio. La crescita dell'accesso dei lavoratori agli strumenti di IA è stata del 50% nel 2025. La capacità di gestire quell'accesso non è cresciuta allo stesso ritmo.
Questo divario non è accidentale. È strutturale. E ha una causa che poche organizzazioni sono disposte a nominare senza eufemismi: i dati aziendali sono, nella loro maggior parte, in disordine.
Cosa trova l'assistente quando nessuno sta guardando
Quando un'azienda attiva un copilota di IA all'interno del proprio ambiente di produttività, quel sistema non crea nuove porte di accesso. Utilizza quelle che già esistono. Opera con i permessi ereditati dall'utente che lo attiva e arriva esattamente dove quell'utente può arrivare, con una differenza operativa che cambia tutto: lo fa alla velocità di una macchina.
Microsoft documenta con precisione questo funzionamento. La sua architettura di Copilot stabilisce che il sistema opera all'interno del perimetro del servizio, circoscritto all'utente autenticato e ai contenuti a cui quella persona ha accesso autorizzato. Non viola i permessi. Li esegue. Ed è qui il punto che molti team di sicurezza non avevano calcolato con sufficiente chiarezza: se i permessi sono più aperti di quanto dovrebbero essere, un singolo prompt può recuperare ciò che in precedenza richiedeva decine di ricerche manuali disperse.
Anni di cartelle condivise che non sono mai state chiuse. File copiati per un'analisi puntuale rimasti su unità personali. Messaggi di posta elettronica con allegati sensibili archiviati senza classificazione. Repository di documenti che accumulano registrazioni che nessuno elimina perché nessuno ricorda che esistono. Questa è la materia prima reale con cui lavora l'assistente di IA quando si connette a un'organizzazione che non ha verificato il proprio ambiente prima di abilitare l'accesso.
Il rischio non nasce dal modello linguistico. Nasce dall'architettura dei dati che il modello eredita.
I team di sicurezza affrontano qui un problema di visibilità che i loro strumenti tradizionali non risolvono. La prevenzione della perdita dei dati è stata progettata per monitorare i punti di uscita. I sistemi di gestione delle identità amministrano ruoli e permessi. I registri di attività documentano ciò che è già accaduto. Nessuno di questi strumenti è stato costruito per mappare cosa accade quando una query di IA attraversa documenti, caselle di posta, database e repository di conoscenza in una singola interazione, generando una risposta che combina frammenti di informazioni che non erano mai stati collegati tra loro.
Ciò che emerge da quell'incrocio può essere perfettamente legittimo. Può anche essere una concentrazione di dati sensibili che nessun controllo precedente aveva anticipato.
Il costo nascosto di ignorare l'infrastruttura prima del modello
La narrativa dominante sull'adozione dell'IA in azienda presenta una distorsione di fondo: pone la conversazione sui modelli, le interfacce e i casi d'uso, e lascia in secondo piano la domanda su quali dati alimentano quelle decisioni e in quali condizioni di ordine, classificazione e governance.
Gartner stima che il 63% delle organizzazioni non dispone delle pratiche di gestione dei dati necessarie per sostenere i progetti di IA. Quel numero aiuta a spiegare perché così tanti deploy si fermano prima di raggiungere la produzione, non a causa di limitazioni del modello né per mancanza di budget, ma perché l'infrastruttura di dati sottostante non riesce a sostenere ciò di cui il modello ha bisogno per operare con coerenza.
Il disallineamento ha conseguenze finanziarie dirette. Le organizzazioni che investono in licenze, formazione e cambiamento dei processi senza risolvere prima il livello dei dati stanno pagando per una capacità che non riescono a utilizzare in modo affidabile. Peggio ancora: stanno assumendo un'esposizione che non riescono a quantificare. Se i sistemi di IA operano su dati non classificati, con permessi eccessivi e senza un inventario aggiornato di cosa esiste e dove, la finestra di esposizione regolamentare si amplia in modi che i revisori e i team legali stanno ancora imparando a misurare.
Persistent Systems, tra gli altri fornitori specializzati in questo campo, struttura le proprie soluzioni attorno a tre assi precisi: ottimizzazione dell'infrastruttura, qualità dei dati e scalabilità sicura dei carichi di lavoro di IA. La sequenza non è casuale. La scalabilità viene alla fine, non all'inizio.
Astutis documenta nel suo rapporto del 2026 che la grande maggioranza dei lavoratori si aspetta che l'IA abbia un impatto significativo sulle proprie funzioni entro cinque anni, ma solo una piccola frazione la utilizza attivamente oggi. La ragione non è la resistenza culturale. È che l'esperienza reale con strumenti di IA in ambienti aziendali mal preparati genera attriti concreti: risposte incoerenti, risultati che mescolano informazioni provenienti da contesti diversi, incertezza sulla affidabilità di ciò che il sistema restituisce. Quegli attriti non si risolvono migliorando il modello. Si risolvono risolvendo i dati.
Governare l'IA come si governa un'identità ad alto rischio
Esiste un cambiamento concettuale che le organizzazioni più avanzate in questo campo stanno già attuando, e che le altre dovranno eventualmente compiere: trattare gli agenti di IA come identità governate, non come strumenti per l'utente.
Quando un copilota o un agente di automazione accede ai sistemi aziendali, lo fa attraverso account di servizio, interfacce di programmazione e contesti utente. Dispone di permessi. Agisce sui dati. Genera output che possono contenere informazioni sensibili. Per tutte queste ragioni, dovrebbe ricevere lo stesso trattamento riservato a qualsiasi identità ad alto privilegio in un'organizzazione: revisione periodica degli accessi, applicazione del principio del minimo privilegio, monitoraggio del comportamento e tracciabilità di ciò a cui accede.
La maggior parte dei programmi di sicurezza aziendali non è configurata per questo. Sono stati progettati pensando a persone e sistemi, non ad agenti di IA che operano con una logica propria, combinano fonti di informazioni e producono output che i loro operatori umani non sempre riescono ad anticipare.
La preparazione dei dati per l'IA, nel suo senso operativo, richiede almeno quattro movimenti concreti. In primo luogo, costruire un inventario aggiornato dei sistemi di IA attivi nell'ambiente, inclusi i copiloti incorporati nelle piattaforme di produttività, i modelli personalizzati e gli agenti di automazione, mappati alle fonti di dati a cui accedono. In secondo luogo, classificare i dati sensibili in modo coerente attraverso l'archiviazione cloud, le applicazioni software come servizio e i repository legacy, perché senza quella classificazione i controlli di conformità non riescono a distinguere tra informazioni sensibili e generiche. In terzo luogo, applicare agli agenti di IA la stessa revisione che si applica agli account di servizio ad alto rischio: i loro permessi dovrebbero riflettere l'uso reale, non un'eredità accumulata. In quarto luogo, connettere quel contesto di dati ai controlli esistenti, inclusi i sistemi di prevenzione della perdita di dati, la gestione degli accessi e delle identità e i gateway di accesso, affinché le politiche riflettano l'esposizione reale anziché pattern astratti.
Nessuno di questi passaggi richiede di aspettare che i modelli di IA migliorino. Sono decisioni sull'infrastruttura che già esiste.
La preparazione dei dati non è una fase preliminare, è la vera scommessa
Il mercato dell'IA aziendale sta crescendo a tassi superiori al 30% annuo e si prevede che raggiunga tra i 150.000 e i 200.000 milioni di dollari entro il 2030. In questo contesto, il vantaggio competitivo non consisterà nell'aver adottato l'IA prima degli altri, ma nell'averla adottata su una base che consente di operare con fiducia e scalare senza attriti.
Le organizzazioni che hanno trattato la preparazione dei dati come una formalità tecnica minore stanno scoprendo, in produzione, che i loro sistemi di IA producono risultati incoerenti, che i loro team legali non riescono a certificare la conformità regolamentare dei processi assistiti dall'IA, e che i loro team di sicurezza non riescono a rispondere a domande basilari su quali informazioni vengono elaborate e da chi.
Il cambiamento che questo momento rivela non è tecnologico nella sua essenza. È di governance. L'intelligenza artificiale sta costringendo le aziende a confrontarsi con problemi di dati che esistevano già prima che qualsiasi copilota venisse attivato: dati non classificati, permessi accumulati senza revisione, inventari incompleti, controlli progettati per un mondo in cui le ricerche erano manuali e lente. Ciò che è cambiato non è che quei problemi sono comparsi. Ciò che è cambiato è che non è più possibile ignorarli senza conseguenze visibili e rapide.
Le organizzazioni che usciranno meglio posizionate in questo ciclo sono quelle che hanno compreso che preparare i dati non è un passo preliminare all'adozione dell'IA. È, con precisione, il lavoro di fondo che determina se l'adozione produce valore o semplicemente produce una maggiore superficie di rischio su cui opera un sistema più veloce.











