Seguici sui social

Nuove vulnerabilità di sicurezza derivanti dalla rapida adozione dell'intelligenza artificiale di generazione che le organizzazioni devono affrontare

Leader del pensiero

Nuove vulnerabilità di sicurezza derivanti dalla rapida adozione dell'intelligenza artificiale di generazione che le organizzazioni devono affrontare

mm mm

L'intelligenza artificiale generativa (GenAI) si è trasformata da semplice curiosità a forza centrale nella tecnologia aziendale. La sua capacità di generare testo, codice, immagini e insight su richiesta l'ha resa indispensabile per i dipendenti desiderosi di superare la complessità e accelerare la produttività. Ma questa innovazione ed efficienza comportano anche un'enorme esposizione al rischio.

Nelle conversazioni con dirigenti e responsabili della governance dell'IA in diversi settori, emerge ripetutamente un tema: la sicurezza dei dati è passata dall'essere una preoccupazione fondamentale al punto focale della loro strategia, diventando ora la sfida decisiva per l'adozione dell'IA. A differenza dei software tradizionali o persino delle passate ondate di machine learning, la GenAI cambia radicalmente il processo di protezione dei dati all'interno di un'organizzazione.

Uno studio recente del MIT ha scoperto che il 95% dei progetti pilota di GenAI aziendali fallisce. Non perché la tecnologia sia debole, ma perché le aziende non dispongono dei framework di governance e sicurezza necessari per rendere operativa la GenAI in modo appropriato e responsabile. In un altro studio del MITI leader aziendali hanno indicato la sicurezza dei dati come uno dei principali rischi aziendali e di sicurezza che ostacolano una più rapida adozione dell'intelligenza artificiale. Inoltre, la cosiddetta "intelligenza artificiale ombra", ovvero l'uso non autorizzato di strumenti pubblici da parte dei dipendenti, è ampiamente riconosciuta come fattore determinante dell'aumento vertiginoso dei rischi per i dati, al di fuori del controllo aziendale.

L'accesso con privilegi minimi è un modello di sicurezza in cui a qualsiasi entità, che sia un utente, un programma o un processo, viene concesso solo il livello minimo di accesso e autorizzazioni necessarie per svolgere le sue funzioni legittime. La GenAI, tuttavia, capovolge l'intero paradigma: il privilegio minimo diventa esso stesso un vincolo in conflitto con il modo in cui questi sistemi sono progettati per funzionare. Questo perché gli strumenti GenAI aziendali tendono a offrire maggiori guadagni di produttività quando hanno accesso a più dati aziendali e al contesto aziendale.

Con l'accelerazione dell'adozione di GenAI, gli utenti continuano a scoprire nuove applicazioni di GenAI, la maggior parte delle quali nasce da sperimentazione organica e curiosità, piuttosto che da una pianificazione top-down guidata dalle esigenze aziendali. Se un'entità non riesce a definire le attività per cui GenAI verrà utilizzata o i tipi di dati a cui deve accedere, diventa impossibile impostare permessi di accesso con privilegi minimi. Inoltre, un utente può avere accesso appropriato a un set di dati e fornirlo legittimamente come input a uno strumento GenAI, ma una volta che i dati vengono acquisiti, non sono più vincolati dai permessi originali dell'utente. Possono invece essere assorbiti nel modello, riprodotti in output futuri o resi accessibili ad altri che utilizzano lo stesso strumento. Poiché GenAI non eredita necessariamente i controlli di accesso ai dati, rende di fatto inapplicabile il privilegio minimo.

Esposizioni GenAI da considerare

GenAI crea una superficie dati vasta e in continua espansione, complicando la governance e la sicurezza dei dati aziendali in diversi modi interconnessi. Tra questi:

Perdita di ingresso – GenAI può acquisire dati nella loro forma grezza, inclusi testo, immagini, audio, video e dati strutturati. Gli utenti finali possono ora indirizzare gli strumenti GenAI verso nuovi set di dati con il minimo sforzo o competenza. Invece di essere limitati a tabelle strutturate e accuratamente selezionate con schemi e relazioni definiti, questi set di dati possono includere registrazioni di chiamate di vendita, note e-mail CRM, trascrizioni del servizio clienti e altro ancora. In pratica, i dipendenti alimentano i prompt con informazioni aziendali altamente sensibili, tra cui dati personali identificativi dei clienti, proprietà intellettuale, previsioni finanziarie e persino codice sorgente.

Esposizione in uscita - I modelli generativi non si limitano a consumare, ma sintetizzano. Un prompt può involontariamente estrarre informazioni da più set di dati ed esporle agli utenti senza la dovuta autorizzazione. In alcuni casi, gli output possono persino "allucinare" dati che sembrano legittimi, ma contengono frammenti di materiale di formazione reale e altamente sensibile.

Gli strumenti GenAI funzionano meglio quando hanno a disposizione il contesto per l'attività da svolgere. Di conseguenza, GenAI non solo assimila le informazioni esistenti, ma gli utenti creano anche nuovi dati per guidarla sotto forma di prompt estesi e dettagliati che documentano il contesto aziendale, i processi interni e altre informazioni potenzialmente sensibili o critiche per l'azienda.

Accessibilità senza supervisione - I sistemi aziendali tradizionali richiedevano l'onboarding dei fornitori e il provisioning IT. Oggi GenAI è integrata ovunque: nelle suite Microsoft Office, nei browser, negli strumenti di chat e nelle piattaforme SaaS. I dipendenti possono adottarla all'istante, bypassando completamente la governance. Questo accesso senza attriti alimenta la "shadow AI" e ogni utilizzo non autorizzato di GenAI rappresenta un potenziale evento di esfiltrazione di dati che avviene in modo invisibile, su larga scala e al di fuori del perimetro di governance di un'azienda.

Rischio della catena di fornitura di secondo livello – Un fornitore può sembrare sicuro, ma spesso si affida a subappaltatori come host cloud, servizi di annotazione o laboratori di intelligenza artificiale di terze parti. Ognuno di essi introduce i propri contratti di licenza con l'utente finale (EULA) e le proprie policy. I dati aziendali sensibili possono passare attraverso molteplici mani invisibili, ma la responsabilità rimane interamente dell'azienda. Ad esempio, un'azienda potrebbe avere un fornitore che in precedenza ha completato il suo processo di onboarding, ma che ora utilizza uno strumento GenAI che potrebbe consentire l'utilizzo dei dati aziendali come dati di training, con impatti significativi a valle.

Lacune di governance nei dati di formazione – Una volta che i dati entrano in un modello di intelligenza artificiale, il controllo di fatto termina. Le aziende non possono facilmente ritrattare o governare l'utilizzo delle loro informazioni. La conoscenza proprietaria può persistere e poi riaffiorare negli output molto tempo dopo che la sua fonte è stata dimenticata. Non abbiamo ancora incontrato alcuno strumento di GenAI che consenta di richiedere la rimozione delle informazioni acquisite, in modo simile a quanto previsto dalle normative sulla privacy come il Regolamento generale sulla protezione dei dati (GDPR) o il California Consumer Privacy Act (CCPA). L'implementazione di tali processi è improbabile finché la regolamentazione non ne guiderà il cambiamento.

Rischio del codice applicativo – L'intelligenza artificiale sta scrivendo sempre più il codice alla base dei sistemi aziendali. Gli sviluppatori che utilizzano strumenti GenAI come Microsoft Copilot per generare codice potrebbero inconsapevolmente introdurre dipendenze non sicure, propagare vulnerabilità o incorporare codice con licenze open source in conflitto. Una volta implementate, queste debolezze si radicano nella catena di fornitura del software.

Affrontare il rischio GenAI

La GenAI è già integrata nei flussi di lavoro aziendali, quindi la questione per le aziende non è se adottarla o meno, ma come farlo in modo responsabile. Adottare la GenAI senza governance comporta il rischio di costose violazioni, sanzioni normative e danni alla reputazione. Ma bloccarla non fa altro che spingere i dipendenti a utilizzare soluzioni non autorizzate. L'unica via d'uscita è un'abilitazione integrata con visibilità e controllo.

La governance di GenAI richiede una visibilità contestuale non solo sui dati in possesso di un'azienda, dove risiedono e chi vi ha accesso, ma anche su come viene utilizzata GenAI. Le aziende devono vedere a quali strumenti si accede, quali prompt vengono inseriti e se i dati sensibili escono dal loro ambiente. Da lì, possono applicare i controlli appropriati per monitorare prompt e output in tempo reale, segnalare sessioni rischiose o flussi di dati anomali, bloccare strumenti non autorizzati, filtrare i prompt sensibili prima che vengano abbandonati, de-identificare i dati sensibili durante l'inserimento nei prompt e applicare restrizioni basate sui ruoli alle informazioni basate sull'intelligenza artificiale.

La GenAI rappresenta un livello completamente nuovo di rischi e opportunità aziendali. Gestirla richiede la consapevolezza che la sicurezza non è un freno all'innovazione, ma il fondamento che la rende sicura.

Il Dott. Shashanka è capo scienziato e co-fondatore di ConcentricoPrima di entrare in Concentric, il Dott. Shashanka è stato Amministratore Delegato del team Data Science e Machine Learning di Charles Schwab. Ha co-fondato PetaSecure ed è stato Chief Scientist prima della sua acquisizione da parte di Niara.

Lane Sullivan è Vicepresidente Senior e Responsabile della Sicurezza delle Informazioni e della Strategia presso IA concentrica, guidando il programma di sicurezza informatica globale dell'azienda e influenzando la strategia di prodotto per migliorare la sicurezza dei dati aziendali e la governance dell'IA. In precedenza, Lane ha ricoperto la carica di Senior Vice President e Chief Information Security Officer presso Magellan Health, concentrandosi sulla conformità in un ambiente altamente regolamentato. L'esperienza include anche la direzione di un programma di sicurezza informatica multimilionario presso Ingram Content Group e la leadership infrastrutturale presso C&S Wholesale Grocers. I ruoli di leadership di Lane risalgono a JT Investments, dove gestiva operazioni e tecnologia, e Basin Home Health & Hospice Inc., dove sono stati compiuti progressi significativi nell'IT sanitario. Il background formativo di Lane include un Master in Sicurezza Informatica e dei Sistemi Informativi presso la Western Governors University, a complemento di una laurea triennale in Gestione IT presso la stessa istituzione.