Leader di pensiero
Il Pericolo di Dire No all’AI

Ho partecipato a una riunione di una potenziale azienda clienti la scorsa settimana. Erano presenti tutti gli addetti alla sicurezza e alla rete, oltre alla direzione. Diversi relatori hanno trattato gli argomenti del momento. Poi qualcuno ha iniziato a spiegare come i suoi team tecnici utilizzano l’AI nel loro lavoro quotidiano.
Il relatore era entusiasta. Aveva trovato un modo per comprimere tre giorni di lavoro manuale di copia e incolla in pochi minuti utilizzando strumenti di AI. Super cool, vero? Capisco cosa stava facendo e perché lo stava facendo. Questa è la promessa dell’AI!
Ma come persona addetta alla sicurezza nella stanza, sto pensando: “Oh mio Dio”. “Quale strumento è quello? Chi possiede quello strumento?” Perché sta inserendo informazioni sui clienti in queste piattaforme – dati sui prezzi. Forse informazioni finanziarie? Qualsiasi cosa possa essere. Tutto per velocizzare il suo flusso di lavoro.
Quindi, ho chiesto la domanda ovvia: “Avete una politica per l’AI?” Abbiamo cercato. Abbiamo trovato un breve testo sepolto nell’uso accettabile. Qualcosa di vago sugli strumenti di AI. Qualcuno li legge realmente? Probabilmente no. Li firmi durante l’onboarding e hai finito.
I Vostri Dipendenti Stanno Già Utilizzando l’AI
Ecco cosa ho imparato parlando con aziende di ogni settore: l’AI è già ovunque, che lo ammettiate o no. Le recenti ricerche confermano questa realtà – il 75% dei lavoratori utilizza già l’AI sul lavoro, quasi raddoppiato in soli sei mesi.
La scorsa settimana a Houston, ho incontrato un uomo la cui azienda trivella per il petrolio. Hanno una piattaforma di AI che analizza la composizione del suolo e i modelli meteorologici per ottimizzare le posizioni di trivellazione. Mi ha spiegato come fattorizzano i dati sulle precipitazioni – “Sapevamo che pioveva 18 giorni in più di quanto non facesse in quest’area, quindi la capacità di petrolio è probabilmente più alta, il che consente ai trivelli di penetrare più in profondità”.
Nel frattempo, sto utilizzando l’AI per creare un itinerario per la Germania. Ho parlato con aziende del settore sanitario che lo utilizzano per piattaforme di telehealth. Team finanziari che eseguono modelli di rischio. Ho evenuto incontrato qualcuno che gestisce un’azienda di limonate che sfrutta l’AI in qualche modo.
Il punto è: l’AI è in ogni settore, ogni flusso di lavoro. Non sta arrivando – è già qui. E la maggior parte di queste organizzazioni sono nella stessa barca in cui eravamo. Sanno che i loro dipendenti lo stanno utilizzando. Non sanno solo come gestirlo.
L’IT Ombra Diventa Pericolosa Velocemente
Sapete cosa succede quando dite alle persone che non possono utilizzare l’AI? È esattamente come dire al vostro teenager di non bere mai. Congratulazioni, adesso saranno loro a bere nei modi più pericolosi, perché avete creato una proibizione.
I numeri dimostrano questa realtà: il 72% dell’utilizzo di AI generativa in azienda è IT ombra, con dipendenti che utilizzano account personali per accedere a app di AI.
Le persone vanno a prendere il loro secondo laptop. Utilizzano il loro telefono personale che non è protetto dalla sicurezza aziendale. Poi utilizzano l’AI comunque. Improvvisamente perdete la visibilità e create le stesse lacune che stavate cercando di prevenire.
Ho visto questo modello prima. Team di sicurezza che dicono “no” a tutto finiscono per spingere le persone sotto terra – e perdono ogni controllo su cosa sta realmente accadendo.
La Sicurezza Diventa il Nemico
C’è la percezione che i team di sicurezza siano “i tipi cattivi nel seminterrato”. Le persone pensano: “Oh, la sicurezza probabilmente dirà di no comunque, quindi non importa loro. Lo farò comunque”.
Abbiamo creato questo malinteso. E con l’AI, le persone sono prevenute nel pensare che li chiuderemmo, quindi non si disturbano a chiedere. Ciò uccide la comunicazione che volete realmente.
Ho avuto uno sviluppatore che mi si è avvicinato dopo una presentazione alla conferenza. Utilizza API ogni singolo giorno e stava cercando di attirare l’attenzione del team di sicurezza sulla testing e convalida. Ma aveva deciso di non chiedere perché pensava che avrebbero detto di no.
Il Deficit di Fiducia Vi Costa Tutto
Ecco la conversazione che volete: qualcuno del marketing si avvicina a voi e dice, “Ehi, voglio utilizzare questo strumento di AI. Qual è la nostra posizione su di esso? Come posso utilizzarlo in sicurezza?” È il modo giusto per collaborare con la sicurezza.
Stiamo per valutarlo. Capiamo che l’AI farà parte dell’azienda. Non diremo di no – vogliamo che le persone lo utilizzino in sicurezza. Ma abbiamo bisogno di quella conversazione per prima.
Quando le persone assumono che la sicurezza bloccherà tutto, smettono di chiedere. Si iscrivono con indirizzi email personali, iniziano a inserire dati aziendali in piattaforme non verificate e perdete ogni visibilità e controllo. Il risultato è prevedibile: il 38% dei dipendenti condivide informazioni di lavoro sensibili con strumenti di AI senza il permesso del datore di lavoro.
Le organizzazioni utilizzeranno l’AI comunque. La domanda è: come possiamo assicurarci che i nostri dipendenti possano sfruttarla in sicurezza senza mettere a rischio i dati aziendali, la privacy o la sicurezza?
Iniziate Con Sì Intelligenti, Non Con No Generali
Ecco cosa funziona realmente: comunicazione proattiva. Inviate newsletter o eseguite webinar di 30 minuti dicendo, “Stiamo permettendo l’AI all’interno dell’organizzazione. Ecco come utilizzarla in sicurezza”. Registrate le sessioni per le persone che le perdono.
Mostrate esempi di dipendenti che hanno collaborato con successo con la sicurezza. Rendete queste collaborazioni visibili invece di essere un’entità oscura che le persone pensano chiuderà.
Avete bisogno di costruire fiducia nel tempo tra la sicurezza e i dipendenti. Alla fine della giornata, stiamo tutti utilizzando l’AI in modi grandi e piccoli. Ho utilizzato l’AI per pianificare il mio viaggio in Germania – gli ho detto di creare un itinerario di tre giorni e ho ottenuto un viaggio fantastico.
Da un punto di vista organizzativo, dobbiamo riconoscere dove si trova l’AI nell’azienda. Sta per aumentare i ricavi? Probabilmente. Il caso d’uso è chiaro: l’AI è passata da ‘esperimento’ a ‘essenziale’, con un aumento del 130% della spesa aziendale. Quindi, cosa facciamo? Come possiamo fornire protezione abilitando la produttività?
L’obiettivo non è il controllo perfetto, è impossibile. L’obiettivo è l’adozione informata dell’AI con paratie che funzionano realmente nella pratica. Il nuovo rischio per la sicurezza è diventare isolati dall’utilizzo dell’AI – utilizzo che avviene con o senza di voi.
Per le organizzazioni serie nell’ottenere questo risultato, gli esperti raccomandano di sviluppare chiare politiche di governance dell’AI che bilancino le esigenze aziendali con i requisiti di sicurezza prima che l’utilizzo di AI ombra sfugga completamente al controllo.












