Leader del pensiero
Il pericolo del no all'intelligenza artificiale

La settimana scorsa ho partecipato alla chiamata aziendale di un potenziale cliente. C'erano tutti i responsabili della sicurezza e del networking, oltre al management. Diversi relatori che affrontavano gli argomenti del momento. Poi qualcuno ha iniziato a spiegare come i suoi team tecnici utilizzano l'intelligenza artificiale nel loro lavoro quotidiano.
Il presentatore era emozionato. Aveva trovato un modo per comprimere tre giorni di lavoro manuale di copia e incolla in un paio di minuti usando strumenti di intelligenza artificiale. Fantastico, vero? Capisco cosa stava facendo e perché lo stava facendo. Questa è la promessa dell'intelligenza artificiale!
Ma come addetto alla sicurezza nella stanza, penso: "Oh mio Dio". "Che strumento è quello? Chi è il proprietario di quello strumento?" Perché sta inserendo informazioni sui clienti in queste piattaforme: dati sui prezzi. Forse informazioni finanziarie? Qualunque cosa sia. Tutto per velocizzare il suo flusso di lavoro.
Così, ho posto la domanda ovvia: "Avete una policy sull'intelligenza artificiale?". Siamo andati a cercare. Abbiamo trovato un breve testo nascosto sull'uso accettabile. Qualcosa di vago sugli strumenti di intelligenza artificiale. Qualcuno lo legge davvero? Probabilmente no. Lo firmi durante l'onboarding e il gioco è fatto.
I tuoi dipendenti stanno già utilizzando l'intelligenza artificiale
Ecco cosa ho imparato parlando con aziende di ogni settore: l'intelligenza artificiale è già ovunque, che lo si riconosca o meno. Ricerche recenti confermano questa realtà .Il 75% dei lavoratori ora utilizza l'intelligenza artificiale sul lavoro, quasi raddoppiando in soli sei mesi.
La settimana scorsa a Houston ho incontrato un tizio la cui azienda si occupa di trivellazioni petrolifere. Hanno una piattaforma di intelligenza artificiale che analizza la composizione del suolo e le condizioni meteorologiche per ottimizzare i siti di perforazione. Mi ha spiegato come tengono conto dei dati sulle precipitazioni: "Sapevamo che ha piovuto 18 giorni in più rispetto a questa zona, quindi la capacità di estrazione del petrolio è probabilmente maggiore, il che consente alle trivellazioni di penetrare più in profondità ".
Nel frattempo, sto usando l'intelligenza artificiale per creare un itinerario per la Germania. Ho parlato con aziende del settore sanitario che la utilizzano per piattaforme di telemedicina. Ho parlato con team finanziari che gestiscono modelli di rischio. Ho persino incontrato un gestore di un'attività di limonata che sta sfruttando in qualche modo l'intelligenza artificiale.
Il punto è: l'intelligenza artificiale è presente in ogni settore, in ogni flusso di lavoro. Non è in arrivo, è già qui. E la maggior parte di queste organizzazioni si trova nella nostra stessa situazione. Sanno che i loro dipendenti la stanno utilizzando, ma non sanno come gestirla.
L'informatica ombra diventa rapidamente pericolosa
Sapete cosa succede quando dite alle persone che non possono usare l'intelligenza artificiale? È esattamente come dire a vostro figlio adolescente di non bere mai. Congratulazioni, ora saranno loro a bere nei modi più pericolosi, perché avete creato un divieto.
I numeri dimostrano questa realtà : Il 72% dell'utilizzo dell'intelligenza artificiale generativa nelle aziende è shadow IT, con i dipendenti che utilizzano account personali per accedere alle app di intelligenza artificiale.
Le persone vanno a comprare un secondo portatile. Usano il loro telefono personale, non protetto dalla sicurezza aziendale. Poi usano comunque l'intelligenza artificiale. Improvvisamente perdi visibilità e si creano esattamente le lacune che stavi cercando di prevenire.
Ho già visto questo schema in passato. I team di sicurezza che dicono "no" a tutto finiscono per costringere le persone a nascondersi e perdono ogni controllo su ciò che sta realmente accadendo.
La sicurezza diventa il nemico
C'è questa percezione che i team di sicurezza siano "i cattivi in ​​cantina". La gente pensa: "Oh, la sicurezza probabilmente dirà di no comunque, quindi lascia perdere quei ragazzi. Lo farò comunque".
Abbiamo creato questo malinteso. E con l'intelligenza artificiale, le persone sono portate a dare per scontato che li bloccheremo, quindi non si preoccupano di chiedere. Questo uccide la comunicazione che in realtà desideriamo.
Dopo una presentazione a una conferenza, uno sviluppatore si è avvicinato a me. Usava le API ogni giorno e aveva cercato di attirare l'attenzione del suo team di sicurezza su test e validazione. Ma aveva deciso di non chiedere perché pensava che gli avrebbero semplicemente detto di no.
Il deficit di fiducia ti costa tutto
Ecco la conversazione che vuoi: qualcuno del marketing si avvicina e ti dice: "Ehi, vorrei usare questo strumento di intelligenza artificiale. Qual è la nostra posizione al riguardo? Come posso usarlo in modo sicuro?". Questo è il modo giusto per collaborare con la sicurezza.
Lo valuteremo attentamente. Sappiamo che l'intelligenza artificiale sarà parte integrante del business. Non diremo di no: vogliamo che le persone la utilizzino in modo sicuro. Ma prima abbiamo bisogno di questa conversazione.
Quando le persone danno per scontato che la sicurezza bloccherà tutto, smettono di chiedere. Si registrano con indirizzi email personali, iniziano a inserire dati aziendali in piattaforme non verificate e perdono ogni visibilità e controllo. Il risultato è prevedibile: Il 38% dei dipendenti condivide informazioni di lavoro sensibili con strumenti di intelligenza artificiale senza il permesso del datore di lavoro.
Le aziende continueranno a utilizzare l'intelligenza artificiale a prescindere da tutto. La domanda è: come possiamo garantire che i nostri dipendenti possano sfruttarla in modo sicuro senza compromettere i dati aziendali, la privacy o la sicurezza?
Inizia con dei sì intelligenti, non con dei no generalizzati
Ecco cosa funziona davvero: comunicazione proattiva. Inviate newsletter o organizzate webinar di 30 minuti dicendo: "Stiamo consentendo l'uso dell'intelligenza artificiale all'interno dell'organizzazione. Ecco come farlo in sicurezza". Registrate le sessioni per chi ne sente la mancanza.
Mostra esempi di dipendenti che hanno collaborato con successo con la sicurezza. Rendi visibili queste collaborazioni, anziché considerarle un'entità oscura che le persone pensano possa bloccarle.
È necessario costruire un rapporto di fiducia duraturo tra la sicurezza e i dipendenti. In fin dei conti, tutti noi utilizziamo l'intelligenza artificiale in grandi e piccole situazioni. L'ho usata per pianificare il mio viaggio in Germania: le ho chiesto di creare un itinerario di tre giorni e ne è uscito un viaggio fantastico.
Da un punto di vista organizzativo, dobbiamo riconoscere il ruolo dell'IA nel business. Aumenterà il fatturato? Probabilmente sì. Il business case è chiaro: L'intelligenza artificiale è passata da "sperimentazione" a "essenziale", con una spesa aziendale in aumento del 130%Quindi, cosa facciamo? Come possiamo garantire protezione e al contempo favorire la produttività ?
L'obiettivo non è il controllo perfetto, è impossibile. L'obiettivo è l'adozione consapevole dell'IA con misure di sicurezza che funzionino davvero nella pratica. Il nuovo rischio per la sicurezza è l'isolamento dall'uso dell'IA, un uso che avviene con o senza di te.
Per le organizzazioni che vogliono seriamente fare le cose per bene, gli esperti raccomandano di sviluppare chiare politiche di governance dell'IA che bilanciano le esigenze aziendali con i requisiti di sicurezza prima che l'uso dell'intelligenza artificiale ombra diventi completamente fuori controllo.