Connect with us

Leader di pensiero

Intelligenza Artificiale Ombra: Il Divario di Governance che le Organizzazioni non Possono Ignorare

mm
A female executive looks out a high-rise office window at night where a glowing, interconnected digital network of

A questo punto del viaggio dell’intelligenza artificiale, i leader aziendali riconoscono ampiamente l’importanza della governance dell’intelligenza artificiale. Tuttavia, la velocità con cui le organizzazioni stanno sviluppando politiche e sistemi di controllo continua a essere in ritardo rispetto a quanto velocemente i dipendenti stanno adottando e integrando l’intelligenza artificiale nel loro lavoro quotidiano.

Le organizzazioni che aspettano che i framework di governance si sentano “completi” prima di abilitare l’intelligenza artificiale devono affrontare una dura realtà: in assenza di regole chiare su come, cosa e dove l’intelligenza artificiale può essere utilizzata, i dipendenti definiranno essi stessi quei confini. E quelle decisioni possono essere in conflitto diretto con gli standard organizzativi, la tolleranza al rischio o gli obblighi normativi.

Questo divario di governance ha causato l’intelligenza artificiale ombra a diventare il modello operativo predefinito all’interno di molte organizzazioni.

Un Problema Diffuso e in Crescita

L’intelligenza artificiale ombra non è limitata ai singoli contributori che sperimentano ai margini. Si estende attraverso l’organizzazione, compresa la leadership. Man mano che l’intelligenza artificiale si integra nei flussi di lavoro quotidiani, anche i responsabili delle decisioni senior stanno bypassando i processi di approvazione formale per catturare i suoi benefici. In effetti, uno studio recente ha scoperto che il 68% dei leader della sicurezza, compresi i CISO, ammette di incorporare alcuni gradi di intelligenza artificiale non autorizzata nei flussi di lavoro.

Allo stesso tempo, il 79% dei leader IT riferisce che le loro organizzazioni hanno già sperimentato esiti negativi condividendo dati aziendali con strumenti di intelligenza artificiale. E gli analisti prevedono che questo problema si intensificherà. Gartner stima che, entro il 2030, più del 40% delle organizzazioni subiranno incidenti di sicurezza o conformità a causa dell’uso di strumenti di intelligenza artificiale non autorizzati.

La Superficie di Rischio in Espansione

L’intelligenza artificiale ombra presenta una vasta gamma di rischi, tra cui:

  • Perdita di controllo dei dati e potenziale perdita di dati
  • Vulnerabilità di sicurezza ampliate e superficie di attacco
  • Esposizione alla conformità e alla regolamentazione
  • Mancanza di visibilità su come l’intelligenza artificiale viene utilizzata
  • Perdita di proprietà intellettuale
  • Danni alla reputazione
  • Output inaccurati o distorti

Un fattore importante di questi rischi è una fondamentale incomprensione di come i sistemi di intelligenza artificiale gestiscono i dati.

Molti dipendenti suppongono che l’uso di strumenti “gratuiti”, specialmente quelli che non richiedono credenziali di accesso, offrano anonimato o protezione. In realtà, questi strumenti spesso si affidano agli input degli utenti per addestrare e migliorare i loro modelli e, in alcuni casi, condividono dati con terze parti. Quei dati possono includere informazioni altamente sensibili come informazioni personali identificabili (PII), dati medici o legali, registri finanziari, proprietà intellettuale e altre informazioni aziendali riservate.

Ancor più preoccupante, la consapevolezza non sempre cambia il comportamento. La ricerca mostra che il 38% dei dipendenti condivide intenzionalmente informazioni sensibili con strumenti di intelligenza artificiale senza l’approvazione dell’organizzazione.

Perché l’Intelligenza Artificiale Ombra Persiste

Per affrontare efficacemente l’intelligenza artificiale ombra, le organizzazioni devono prima comprendere la sua causa radice.

Nella maggior parte dei casi, i dipendenti non agiscono con intenti maliziosi. Stanno rispondendo razionalmente al loro ambiente. Sono sotto pressione per muoversi più velocemente, fare di più con meno e fornire risultati migliori. L’intelligenza artificiale consente tutto ciò.

L’intelligenza artificiale ombra emerge quando i sistemi organizzativi non riescono a tenere il passo con quelle aspettative. I fattori comuni includono:

  • Proibizioni strette sugli strumenti di intelligenza artificiale sul posto di lavoro
  • Strumenti approvati che sono meno capaci o meno user-friendly
  • Pressione per rispettare scadenze aggressive
  • Processi di acquisto lenti o complessi
  • Politiche non chiare, inconsistenti o inesistenti
  • Formazione o orientamento limitati
  • Sovrastima della propria capacità di giudizio o sottostima del rischio

Al suo nucleo, l’intelligenza artificiale ombra è un compromesso. Quando i guadagni di produttività percepiti superano i rischi percepiti, i dipendenti sceglieranno sempre velocità ed efficienza.

Gestire l’Intelligenza Artificiale senza Soffocare l’Innovazione

I dipendenti stanno già utilizzando l’intelligenza artificiale. Ignorare questo fatto o ritardare l’azione solo allarga il divario tra politica e pratica.

Le organizzazioni dovrebbero spostare il loro approccio dal controllo all’abilitazione.

Ciò inizia con l’istituzione di linee guida chiare, pratiche e trasparenti, anche se non sono completamente mature. I primi sistemi di controllo forniscono direzione, riducono l’ambiguità e creano una comprensione condivisa dell’uso accettabile.

Ma la politica da sola non è sufficiente. Le organizzazioni hanno anche bisogno di visibilità. Ciò richiede la costruzione di meccanismi basati sulla fiducia che consentono ai dipendenti di rivelare in sicurezza quali strumenti stanno utilizzando e perché. Approcci come “periodi di amnistia per l’intelligenza artificiale ombra” o la segnalazione anonima possono fornire informazioni critiche senza penalizzare immediatamente il comportamento.

Allo stesso tempo, le organizzazioni devono mantenere la responsabilità. Nei casi in cui l’esposizione dei dati è significativa o negligente, le conseguenze possono ancora essere necessarie. L’obiettivo non è eliminare completamente il rischio, ma gestirlo in modo intelligente.

Dall’Ombra alla Strategia

L’intelligenza artificiale ombra è un segnale che l’innovazione si sta muovendo più velocemente delle strutture organizzative progettate per contenerla.

Le organizzazioni non possono permettersi di aspettare. Stabilire la governance ora, anche se imperfetta, è fondamentale per ridurre il rischio e riacquisire visibilità. Ma la governance da sola non è sufficiente. Le linee guida chiare devono essere abbinate all’abilitazione, all’istruzione e a soluzioni alternative accessibili che consentono ai dipendenti di utilizzare l’intelligenza artificiale in modo sicuro ed efficace.

L’obiettivo non è limitare l’adozione dell’intelligenza artificiale, ma plasmarla. Quando le organizzazioni raggiungono quell’equilibrio, l’intelligenza artificiale ombra passa da un passivo nascosto a una capacità strategica gestita. E facendo ciò, possono chiudere il divario tra come l’intelligenza artificiale viene utilizzata e come dovrebbe essere utilizzata prima che quel divario si evolva in una violazione.

Lina Dabit porta più di trent'anni di esperienza di leadership operativa e strategica nel suo ruolo in Optiv Canada. Dabit sfrutta la sua diversificata esperienza nel settore della sicurezza per guidare le organizzazioni verso un approccio proattivo all'intelligence sulle minacce, alla gestione del rischio di terze parti e alla resilienza della sicurezza cross-funzionale. Dabit ha guidato team in diverse discipline, tra cui operazioni di protezione, pianificazione di emergenza, intelligence sulle minacce e operazioni tattiche internazionali.

Prima del suo pensionamento dalla Royal Canadian Mounted Police, Dabit era il comandante del Toronto Cybercrime Investigative Team, dove ha progettato, implementato e diretto iniziative strategiche per ottimizzare le operazioni e stabilire flussi di lavoro efficienti e scalabili, guidando il suo team in diverse indagini su crimini informatici di alto profilo.