Leader di pensiero
L’IA ombra sta esponendo un fallimento più grande nella governance dell’IA

Da anni, il rischio interno è stato inquadrato intorno a scenari peggiori: dipendenti malintenzionati, dati rubati e danni scoperti dopo il fatto. Quell’inquadratura era sempre incompleta. Nell’era dell’IA, sta diventando attivamente poco utile.
La maggior parte del rischio interno non inizia con la malizia. Inizia con il lavoro di routine: riassumere un documento, rispondere a un cliente, accelerare un flusso di lavoro o spedire il codice più velocemente. Sempre più spesso, quelle decisioni quotidiane coinvolgono l’IA.
È per questo che l’IA ombra è importante. Definita in senso lato, l’IA ombra è l’uso di strumenti, agenti o automazioni di IA al di fuori della sorveglianza aziendale approvata. Nella maggior parte dei casi, i dipendenti non stanno cercando di evitare le politiche. Stanno cercando di svolgere il loro lavoro. Il vero problema è che la governance non ha tenuto il passo con il cambiamento del modo di lavorare.
Quella lacuna è ora misurabile. Una nuova ricerca di Ponemon ha scoperto che il 92% delle organizzazioni afferma che l’IA generativa ha cambiato il modo in cui i dipendenti accedono e condividono le informazioni, eppure solo il 18% ha completamente integrato la governance dell’IA nei programmi di rischio interno. L’IA è già incorporata nel lavoro quotidiano. La sorveglianza sta ancora recuperando.
L’IA ombra non è un problema unico
Uno dei più grandi errori che le organizzazioni fanno è trattare l’IA ombra come un rischio uniforme. Non lo è.
C’è una differenza significativa tra l’uso dell’IA per riassumere la ricerca pubblica, incollare contratti interni in un assistente non approvato e consentire a un agente di IA di recuperare dati o eseguire azioni across sistemi aziendali. Il rischio cambia a seconda della sensibilità dei dati, del livello di autonomia coinvolta e dell’autorità concessa al sistema.
È per questo che le proibizioni generali raramente funzionano. Tendono a spingere il comportamento ulteriormente fuori vista senza affrontare le condizioni che hanno reso il comportamento attraente in primo luogo. Ma le politiche eccessivamente permissive non sono migliori. Se tutto è consentito, la governance diventa poco più di un esercizio cartaceo.
Un approccio più efficace è distinguere tra:
- assistenza a basso rischio, dove l’IA supporta il lavoro di routine con esposizione limitata
- gestione dei dati ad alto rischio, dove le informazioni sensibili vengono immesse, trasformate o condivise, e
- autorità delegata, dove i sistemi di IA sono autorizzati a recuperare, orchestrare o agire across ambienti connessi.
Quell’ultima categoria segna il vero cambiamento.
Man mano che l’IA si sposta oltre la generazione di contenuti nella retrieval, orchestrazione ed esecuzione, la domanda di sicurezza cambia. La questione non è più solo se qualcuno ha utilizzato uno strumento non approvato. È quale autorità è stata concessa a un sistema, quali dati può accedere e cosa è autorizzato a fare con quell’accesso.
Gli agenti di IA stanno diventando più affidabili, più connessi e più in grado di agire in modo indipendente. È proprio per questo che i modelli di rischio interno tradizionali iniziano a mostrare i loro limiti.
Perché l’IA ombra con autorità delegata cambia il modello di rischio
La maggior parte dei modelli di rischio interno è stata costruita per valutare il comportamento umano: negligenza, uso improprio, compromissione o intento malizioso. Queste categorie sono ancora importanti. Non catturano più l’intero quadro.
Ciò diventa particolarmente chiaro nell’IA ombra, dove lo strumento o l’agente non è necessariamente sanzionato, governato centralmente o anche visibile all’organizzazione. In questi casi, il rischio non è solo che un dipendente stia utilizzando l’IA. È che potrebbe stare utilizzando un sistema controllato dall’utente con accesso, autonomia o integrazioni che l’azienda non comprende appieno.
Oggi, una persona può avere un accesso legittimo e rilasciare ciò che sembra essere un istruzione di routine. Ma in uno scenario di IA ombra, quell’istruzione può essere passata a un assistente non sanzionato, plug-in, agente o flusso di lavoro che può portarlo oltre, più velocemente o più ampiamente di quanto l’utente intendesse. È questa la vera conseguenza dell’autorità delegata.
L’essere umano fornisce l’intento, l’accesso o il prompt. Il sistema di IA esegue con velocità, scala e persistenza. Insieme, possono amplificare gli errori in modi che i controlli legacy non erano mai stati progettati per contenere.
La preoccupazione non è che i sistemi di IA siano maliziosi. È che possono operazionalizzare istruzioni difettose, giudizi deboli o flussi di lavoro non sicuri a velocità di macchina. E quando quel sistema si trova al di fuori della sorveglianza approvata, l’organizzazione potrebbe avere poca visibilità su quali dati ha toccato, dove quei dati sono andati, quali azioni sono state intraprese o come intervenire quando qualcosa va storto.
È questo che rende l’autorità delegata all’interno dell’IA ombra materialmente diversa dall’uso ordinario di strumenti non autorizzati. Il problema non è più limitato a un dipendente che incolla dati sensibili in un’interfaccia sbagliata. Si estende a sistemi non autorizzati che recuperano informazioni, concatenano attività, si connettono a applicazioni aziendali e agiscono per conto dell’utente senza le barriere di sicurezza che un ambiente approvato normalmente applicherebbe.
È per questo che i team di sicurezza hanno bisogno di un modello più preciso per il rischio interno: uno che tenga conto non solo del comportamento umano, ma dell’interazione tra intento umano e esecuzione della macchina.
Il costo dell’IA ombra è già visibile
Questo non è un problema futuro. I costi sono già visibili nelle tendenze attuali di rischio interno.
La ricerca di Ponemon del 2026 ha scoperto che i costi del rischio interno legati alla negligenza sono aumentati del 17% rispetto all’anno precedente, raggiungendo i 10,3 milioni di dollari USA, contribuendo a un costo totale annuo di rischio interno di 19,5 milioni di dollari USA. Il rapporto identifica l’IA ombra come un fattore di rischio importante, trasformando il comportamento di produttività ordinario in una fonte persistente di esposizione dei dati.
Il materiale sensibile viene immesso in strumenti pubblici o non approvati di IA. Gli strumenti di appunti di IA stanno catturando riunioni confidenziali. Gli strumenti agentic stanno operando con visibilità limitata across ambienti che non sono mai stati progettati per questo livello di interazione autonoma.
Questi sono usualmente atti non maliziosi. Sono comportamenti di lavoro normale che si svolgono in sistemi con barriere di sicurezza deboli e sorveglianza incompleta.
È questo che rende l’IA ombra così significativa. Non introduce semplicemente una nuova categoria di rischio. Aumenta la scala, la velocità e il costo della negligenza, rendendo più facile ripetere piccoli errori e più difficile rilevarli.
Perché vietare gli strumenti di IA non è la risposta
Gli strumenti di IA sono ora troppo utili, troppo accessibili e troppo incorporati nel lavoro quotidiano per essere gestiti solo attraverso la proibizione. Quando le organizzazioni si affidano solo ai divieti, spesso spingono l’uso in canali meno visibili.
Una risposta migliore inizia con la visibilità. I team di sicurezza devono capire quali strumenti di IA vengono utilizzati, quali dati fluiscono in essi, quali output vengono generati e quali sistemi sono autorizzati ad agire per conto dell’utente.
Allo stesso tempo, la governance deve riflettere come il lavoro sta effettivamente avvenendo — non come la politica presume che avvenga.
Ciò significa spostare la governance dell’IA all’interno della gestione del rischio interno, piuttosto che trattarla come un’iniziativa di conformità separata. Se i dipendenti e i sistemi di IA stanno entrambi accedendo, trasformando e spostando informazioni, appartengono allo stesso modello di visibilità, responsabilità e controllo.
Le organizzazioni che ottengono questo risultato non saranno quelle che vietano il maggior numero di strumenti. Saranno quelle che possono chiaramente distinguere dove finisce la sperimentazione responsabile e inizia l’esposizione materiale.
L’IA ombra non è un fastidio di governance passeggero. È un avvertimento precoce che il lavoro è cambiato più velocemente della sorveglianza. La sfida ora non è rallentare l’attività. È applicare la stessa disciplina che ha migliorato la gestione del rischio interno a una nuova realtà operativa — una in cui il giudizio umano e l’esecuzione della macchina lavorano sempre più insieme.












