Connect with us

Leader di pensiero

Illuminare l’aspetto dell’Intelligenza Artificiale nell’ombra

mm

Attraverso vari settori, i lavoratori stanno sempre più utilizzando strumenti di intelligenza artificiale (AI) per trasformare le operazioni quotidiane. Che si tratti di professionisti del marketing che utilizzano ChatGPT per creare campagne o di ingegneri software che scrivono codice con strumenti generativi, l’AI si sta integrando silenziosamente in quasi ogni aspetto dell’attività commerciale. In realtà, il progetto NANDA del MIT ha scoperto che in oltre il 90% delle organizzazioni, i dipendenti utilizzano account di chatbot personali per supportare il loro lavoro quotidiano, spesso senza la supervisione del reparto IT, tuttavia solo il 40% delle aziende ha abbonamenti ufficiali a strumenti di modello linguistico di grandi dimensioni (LLM). Questo disallineamento tra l’uso di AI autorizzato e segreto ha aperto un nuovo punto cieco per la sicurezza: shadow AI.

Senza una supervisione, i dati sensibili possono essere condivisi con modelli esterni, i risultati possono essere inaccurati o distorti e i team di conformità perdono la visibilità su dove e come le informazioni vengono elaborate. Mentre i dipendenti continuano a sperimentare con strumenti al di fuori dei canali approvati, le organizzazioni devono rivedere la loro strategia per la gestione dell’AI, altrimenti questi rischi continueranno a emergere. Per i CIO, vietare gli strumenti di AI non è la soluzione, poiché potrebbe influire sulla capacità competitiva. Invece, l’attenzione dovrebbe essere focalizzata su garanzie adattabili che bilancino l’innovazione con la gestione responsabile dei rischi.

Per stare un passo avanti rispetto ai rischi legati all’AI, le organizzazioni dovrebbero stabilire politiche di AI che promuovano l’adozione responsabile. Queste linee guida dovrebbero incoraggiare i dipendenti a utilizzare l’AI con ragione, e qualsiasi politica stabilita deve essere allineata con i valori e la propensione al rischio dell’azienda. Per raggiungere un programma di successo, le organizzazioni devono andare oltre i modelli di governance obsoleti e gli strumenti legacy che non rilevano o tracciano l’utilizzo di AI in tutta l’attività.

Mentre l’istituzione di una politica di AI è un passo importante, il vero nucleo è assicurarsi che siano progettate per essere pratiche, applicabili e allineate con la visione innovativa e le esigenze di conformità di ogni attività, senza ostacolare il loro progresso.

Art Gilliland è CEO di Delinea e porta una provata esperienza di successo nell'industria del software aziendale globale, guidando grandi organizzazioni nello sviluppo di prodotti, infrastrutture aziendali, cybersecurity, strategia di go-to-market e operazioni SaaS. Recentemente è stato SVP/GM della Divisione Enterprise di Symantec di Broadcom, che riportava al CEO, dove ha guidato l'integrazione e le operazioni aziendali post-acquisizione. Prima di Symantec, Art ha ricoperto posizioni dirigenziali in Skyport Systems, HP, Symantec e IMlogic.