mozzicone Utilizzo dell'intelligenza artificiale generativa: svelare le implicazioni sulla sicurezza informatica degli strumenti di intelligenza artificiale generativa - Unite.AI
Seguici sui social

Leader del pensiero

Utilizzo dell'intelligenza artificiale generativa: svelare le implicazioni sulla sicurezza informatica degli strumenti di intelligenza artificiale generativa

mm

Pubblicato il

 on

È giusto dire che l’intelligenza artificiale generativa ha ormai attirato l’attenzione di ogni consiglio di amministrazione e leader aziendale del paese. Un tempo tecnologia marginale difficile da gestire e ancor meno da padroneggiare, le porte dell'intelligenza artificiale generativa sono ora state spalancate grazie ad applicazioni come ChatGPT o DALL-E. Stiamo ora assistendo a un abbraccio totale dell’intelligenza artificiale generativa in tutti i settori e in tutte le fasce d’età mentre i dipendenti scoprono come sfruttare la tecnologia a proprio vantaggio.

Una recente sondaggio hanno indicato che il 29% degli intervistati della Gen Z, il 28% della Gen X e il 27% dei Millennial ora utilizzano strumenti di intelligenza artificiale generativa come parte del loro lavoro quotidiano. Nel 2022, l’adozione dell’IA generativa su larga scala era pari al 23%, e si prevede che tale cifra raddoppierà fino al 46% entro il 2025.

L’intelligenza artificiale generativa è una tecnologia nascente ma in rapida evoluzione che sfrutta modelli addestrati per generare contenuti originali in varie forme, da testo scritto e immagini, fino a video, musica e persino codice software. Utilizzando modelli linguistici di grandi dimensioni (LLM) ed enormi set di dati, la tecnologia può creare istantaneamente contenuti unici quasi indistinguibili dal lavoro umano e, in molti casi, più accurati e avvincenti.

Tuttavia, mentre le aziende utilizzano sempre più l’intelligenza artificiale generativa per supportare le loro operazioni quotidiane e i dipendenti sono stati rapidi nell’accettarla, il ritmo di adozione e la mancanza di regolamentazione hanno sollevato notevoli preoccupazioni in materia di sicurezza informatica e conformità normativa.

Secondo uno sondaggio della popolazione generale, oltre l’80% delle persone è preoccupato per i rischi per la sicurezza posti da ChatGPT e dall’intelligenza artificiale generativa, e il 52% degli intervistati desidera che lo sviluppo dell’intelligenza artificiale generativa venga sospeso in modo che le normative possano mettersi al passo. Questo sentimento più ampio è stato ripreso anche dalle stesse imprese, con 65% dei dirigenti IT senior non sono disposti a perdonare un accesso agevole agli strumenti di intelligenza artificiale generativa a causa di problemi di sicurezza.

L’intelligenza artificiale generativa è ancora un’incognita sconosciuta

Gli strumenti di intelligenza artificiale generativa si nutrono di dati. I modelli, come quelli utilizzati da ChatGPT e DALL-E, vengono addestrati su dati esterni o disponibili gratuitamente su Internet, ma per ottenere il massimo da questi strumenti, gli utenti devono condividere dati molto specifici. Spesso, quando utilizzano strumenti come ChatGPT, gli utenti condividono informazioni aziendali sensibili per ottenere risultati accurati e completi. Ciò crea molte incognite per le imprese. Il rischio di accesso non autorizzato o di divulgazione involontaria di informazioni sensibili è “integrato” quando si tratta di utilizzare strumenti di intelligenza artificiale generativa disponibili gratuitamente.

Questo rischio di per sé non è necessariamente una cosa negativa. Il problema è che questi rischi devono ancora essere adeguatamente esplorati. Ad oggi, non è stata effettuata alcuna reale analisi dell’impatto aziendale derivante dall’utilizzo di strumenti di intelligenza artificiale generativa ampiamente disponibili, e i quadri legali e normativi globali sull’uso dell’intelligenza artificiale generativa devono ancora raggiungere una qualsiasi forma di maturità.

La regolamentazione è ancora un lavoro in corso

Le autorità di regolamentazione stanno già valutando gli strumenti di intelligenza artificiale generativa in termini di privacy, sicurezza dei dati e integrità dei dati che producono. Tuttavia, come spesso accade con le tecnologie emergenti, l’apparato normativo volto a sostenerne e disciplinarne l’uso è in ritardo di diversi passi. Sebbene la tecnologia venga utilizzata da aziende e dipendenti in lungo e in largo, i quadri normativi sono ancora in fase di progettazione.

Ciò crea un rischio chiaro e attuale per le imprese che, al momento, non viene preso sul serio come dovrebbe. I dirigenti sono naturalmente interessati a come queste piattaforme introdurranno vantaggi aziendali concreti come opportunità di automazione e crescita, ma i gestori del rischio si chiedono come sarà regolamentata questa tecnologia, quali potrebbero essere le implicazioni legali alla fine e in che modo i dati aziendali potrebbero essere compromessi o esposti . Molti di questi strumenti sono disponibili gratuitamente per qualsiasi utente dotato di un browser e di una connessione Internet, quindi, mentre aspettano che la regolamentazione si adegui, le aziende devono iniziare a pensare con molta attenzione alle proprie “regole domestiche” sull’uso dell’IA generativa.

Il ruolo dei CISO nel governare l’IA generativa

In assenza di quadri normativi, i Chief Information Security Officer (CISO) devono farsi avanti e svolgere un ruolo cruciale nella gestione dell’uso dell’intelligenza artificiale generativa all’interno delle loro organizzazioni. Devono capire chi utilizza la tecnologia e per quale scopo, come proteggere le informazioni aziendali quando i dipendenti interagiscono con strumenti di intelligenza artificiale generativa, come gestire i rischi per la sicurezza della tecnologia sottostante e come bilanciare i compromessi di sicurezza con il valore offerte tecnologiche.

Non è un compito facile. Dovrebbero essere effettuate valutazioni dettagliate del rischio per determinare sia gli esiti negativi che quelli positivi come risultato, in primo luogo, dell’implementazione della tecnologia a titolo ufficiale e, in secondo luogo, della possibilità per i dipendenti di utilizzare strumenti disponibili gratuitamente senza supervisione. Data la natura di facile accesso delle applicazioni di intelligenza artificiale generativa, i CISO dovranno riflettere attentamente sulla politica aziendale relativa al loro utilizzo. I dipendenti dovrebbero essere liberi di sfruttare strumenti come ChatGPT o DALL-E per semplificare il proprio lavoro? Oppure l’accesso a questi strumenti dovrebbe essere limitato o moderato in qualche modo, con linee guida e strutture interne su come dovrebbero essere utilizzati? Un problema ovvio è che anche se dovessero essere create linee guida per l’utilizzo interno, dato il ritmo con cui la tecnologia si sta evolvendo, potrebbero essere obsolete nel momento in cui saranno finalizzate.

Un modo per affrontare questo problema potrebbe in realtà essere quello di spostare l’attenzione dagli stessi strumenti di intelligenza artificiale generativa e concentrarsi invece sulla classificazione e protezione dei dati. La classificazione dei dati è sempre stata un aspetto chiave della protezione dei dati da violazioni o perdite, e ciò vale anche in questo particolare caso d’uso. Implica l’assegnazione di un livello di sensibilità ai dati, che determina come dovrebbero essere trattati. Dovrebbe essere crittografato? Dovrebbe essere bloccato per essere contenuto? Dovrebbe essere notificato? Chi dovrebbe avervi accesso e dove è consentita la condivisione? Concentrandosi sul flusso di dati, piuttosto che sullo strumento stesso, i CISO e i responsabili della sicurezza avranno maggiori possibilità di mitigare alcuni dei rischi menzionati.

Come tutte le tecnologie emergenti, l’intelligenza artificiale generativa rappresenta sia un vantaggio che un rischio per le aziende. Sebbene offra nuove entusiasmanti funzionalità come l’automazione e la concettualizzazione creativa, introduce anche alcune sfide complesse relative alla sicurezza dei dati e alla salvaguardia della proprietà intellettuale. Mentre i quadri normativi e legali sono ancora in fase di elaborazione, le aziende devono assumersi la responsabilità di superare il confine tra opportunità e rischio, implementando i propri controlli politici che riflettono la loro posizione di sicurezza complessiva. L’intelligenza artificiale generativa farà avanzare il business, ma dovremmo stare attenti a tenere una mano sul volante.

Con oltre 25 anni di esperienza come esperto di sicurezza informatica, Chris Hetner è noto per aver aumentato il rischio informatico a livello di C-Suite e Board per proteggere industrie, infrastrutture ed economie in tutto il mondo.

Ha ricoperto il ruolo di consulente senior per la sicurezza informatica presso il presidente della Securities and Exchange Commission degli Stati Uniti e di capo della sicurezza informatica per l'Ufficio per le ispezioni e gli esami di conformità presso la SEC.

Attualmente, Chris è presidente del Customer Security Advisory Council di Panzura, che fornisce formazione e consapevolezza sulla resilienza dei dati con la missione di promuovere l'allineamento aziendale, operativo e finanziario alla governance dei rischi della sicurezza informatica. Panzura è un'azienda leader nella gestione dei dati ibridi multi-cloud.

Inoltre, è consigliere speciale per il rischio informatico presso l'Associazione nazionale dei direttori aziendali, presidente della sicurezza informatica e della privacy del Nasdaq Insight Council e membro del consiglio di amministrazione del TCIG.