Leader del pensiero
Perché le aziende restano caute nei confronti dell'intelligenza artificiale e come implementarla in modo sicuro

L'intelligenza artificiale ha conquistato il mondo. Mentre alcune organizzazioni sono state le prime ad adottarla, molte aziende hanno adottato un approccio più cauto, preoccupandosi di questioni di privacy, conformità e operatività che persistono ancora oggi.
Ho lavorato su centinaia di implementazioni che coinvolgono strumenti di sicurezza basati sull'intelligenza artificiale e ho visto svilupparsi uno schema familiare. I campioni portano entusiasmo fin dall'inizio. I progetti pilota mostrano promesse. Poi arrivano dibattiti interni, revisioni legali e infine una pausa, mentre le organizzazioni sprofondano nella paralisi dell'analisi. Nonostante l'immenso potenziale dell'intelligenza artificiale per trasformare le operazioni di sicurezza, molte aziende sono ancora riluttanti ad abbracciarla completamente.
Nella sicurezza informatica, la cautela è spesso la scelta giusta. Ma ritardare l'implementazione dell'IA non fermerà le minacce alimentate dall'IA, che stanno crescendo in scala e frequenza. La vera sfida è come adottare l'IA in modo sicuro, consapevole e senza compromettere la fiducia.
Ecco cosa ho imparato lavorando in prima linea e cosa consiglio ai responsabili della sicurezza che sono pronti ad andare avanti con sicurezza.
1. Il problema della fiducia nei dati
Il primo e più grande ostacolo è la gestione dei dati. Molte aziende sono terrorizzate dall'idea che dati sensibili possano trapelare, essere utilizzati in modo improprio o, peggio ancora, essere utilizzati per addestrare un modello a vantaggio di un concorrente. Violazioni di alto profilo e vaghe garanzie da parte dei fornitori non fanno che rafforzare questi timori.
Non è paranoia. Quando si ha a che fare con dati personali identificativi dei clienti, proprietà intellettuale o dati regolamentati, affidarli a terzi può dare l'impressione di perdere il controllo. E finché i fornitori non chiariranno meglio le loro policy in materia di segregazione dei dati, conservazione, coinvolgimento di terze parti e formazione dei modelli, l'adozione rimarrà cauta.
È qui che la governance diventa cruciale. I CISO dovrebbero valutare i fornitori utilizzando framework emergenti come Quadro di gestione del rischio AI del NIST or ISO / IEC 42001, che offrono indicazioni pratiche su fiducia, trasparenza e responsabilità nei sistemi di intelligenza artificiale.
2. Non puoi migliorare ciò che non misuri
Un altro ostacolo comune è la mancanza di metriche di base. Molte aziende non riescono a quantificare le prestazioni attuali, il che rende quasi impossibile dimostrare il ROI degli strumenti di intelligenza artificiale. Come si può affermare un aumento dell'efficienza del 40% se nessuno ha monitorato il tempo impiegato per svolgere un'attività prima dell'automazione?
Che si tratti di tempo medio di rilevamento (MTTD), tassi di falsi positivi o ore risparmiate dagli analisti SOC, le organizzazioni devono iniziare misurando i flussi di lavoro allo stato attuale. Senza questi dati, la validità dell'intelligenza artificiale rimane aneddotica e gli sponsor esecutivi non approveranno iniziative su larga scala senza numeri reali e difendibili.
Inizia subito a monitorare i KPI chiave, tra cui:
- Tempo medio di rilevamento/risposta (MTTD/MTTR)
- Riduzione dei falsi positivi, dei falsi negativi e del volume dei biglietti
- Tempo di analisi risparmiato per incidente
- Miglioramenti della copertura (ad esempio, vulnerabilità analizzate e corrette)
- Incidenti risolti senza escalation
Queste linee di base diventeranno la spina dorsale della tua strategia di giustificazione dell'IA.
3. Quando gli strumenti funzionano troppo bene
Ironicamente, uno dei motivi per cui l'adozione dell'intelligenza artificiale è in stallo è che alcuni strumenti funzionano troppo bene, esponendo l'organizzazione a rischi maggiori di quelli che è disposta a gestire.
Piattaforme avanzate di threat intelligence, strumenti di monitoraggio del dark web e soluzioni di visibilità basate su LLM spesso rivelano credenziali rubate, domini simili o vulnerabilità precedentemente non rilevate. Invece di creare chiarezza, questa visibilità schiacciante può generare un nuovo problema: da dove cominciare?
Ho visto team disattivare le scansioni avanzate perché il volume dei risultati creava disagi politici o di bilancio. Una migliore visibilità richiede una migliore definizione delle priorità e la volontà di affrontare i problemi a testa alta.
4. Bloccato nei contratti legacy
Anche quando sono disponibili strumenti migliori, molte aziende sono vincolate da accordi pluriennali con i fornitori tradizionali. Alcuni di questi contratti prevedono penali così elevate che un cambio di fornitore a metà periodo è praticamente impossibile.
La sicurezza della posta elettronica è un caso classico. Le soluzioni moderne offrono ora rilevamento delle minacce basato sull'intelligenza artificiale, modellazione comportamentale e resilienza integrata per ambienti ibridi. Ma se il tuo attuale fornitore non è al passo con i tempi e ti ritrovi bloccato in un contratto quinquennale, rimani sostanzialmente bloccato fino alla scadenza del contratto.
Non è solo una questione di tecnologia. È una questione di tempistiche, approvvigionamento e pianificazione strategica.
5. L'ascesa dell'intelligenza artificiale ombra
L'adozione dell'intelligenza artificiale non avviene solo dall'alto verso il basso: sta avvenendo ovunque, spesso senza che gli addetti alla sicurezza ne siano a conoscenza. La nostra ricerca mostra che oltre l'85% dei dipendenti utilizza già strumenti di intelligenza artificiale come ChatGPT, Copilot e Bard (per non parlare di DeepSeek e TikTok!).
Senza un'adeguata supervisione, i dipendenti possono inserire dati sensibili in strumenti pubblici, fare affidamento su output allucinati o violare inavvertitamente le policy aziendali. È un incubo per la conformità e la protezione dei dati, e fingere che non stia accadendo non risolve il problema.
I responsabili della sicurezza devono adottare un atteggiamento proattivo:
- Stabilire politiche di utilizzo accettabile
- Bloccare le app di intelligenza artificiale non approvate quando necessario e reindirizzare gli utenti a strumenti autorizzati
- Implementazione di piattaforme di intelligenza artificiale approvate e sicure per uso interno
- Formazione dei dipendenti sull'uso responsabile dell'intelligenza artificiale
Nota: le policy di utilizzo dell'IA non ne modificheranno l'utilizzo. Non è possibile imporre ciò di cui non si è a conoscenza, quindi il primo passo è quantificare l'utilizzo, quindi attivare l'applicazione.
6. L'outsourcing comporta i suoi rischi
Poche aziende dispongono dell'infrastruttura necessaria per realizzare e ospitare internamente modelli di grandi dimensioni. Ciò significa che l'outsourcing è spesso l'unica soluzione praticabile, ma comporta rischi legati a terze parti e alla supply chain, con cui i CISO hanno fin troppa familiarità .
Incidenti come SolarWinds, Kaseya e la recente violazione di Snowflake evidenziano come fidarsi di partner esterni senza visibilità possa portare a gravi rischi. Quando si esternalizza un'infrastruttura di intelligenza artificiale, si eredita la strategia di sicurezza del fornitore, positiva o negativa che sia.
Non basta fidarsi di un marchio. Chiedi chiarezza su:
- Ciclo di vita del modello e frequenza di aggiornamento
- Protocolli di risposta agli incidenti
- Controlli di sicurezza del fornitore e cronologia della conformitÃ
- Isolamento dei dati e controlli dei tenant
7. La superficie di attacco dell'IA si sta espandendo
Con l'adozione dell'intelligenza artificiale, le organizzazioni devono anche prepararsi a vettori di minaccia specifici per l'intelligenza artificiale. Gli aggressori stanno già sperimentando:
- Avvelenamento del modello (sottilmente alterazione dei dati di allenamento)
- Iniezione immediata (manipolazione del comportamento LLM)
- Input avversari (aggiramento del rilevamento)
- Sfruttamento delle allucinazioni (ingannare gli utenti inducendoli a credere a risultati falsi)
Non si tratta di teorie. Sono reali e in continua crescita. Man mano che i difensori adottano l'intelligenza artificiale, devono anche adattare le loro strategie di red teaming, monitoraggio e risposta per tenere conto di questa nuova e unica superficie di attacco.
8. Le persone e i processi potrebbero essere il vero collo di bottiglia
Una delle sfide più trascurate è la preparazione organizzativa. Gli strumenti di intelligenza artificiale richiedono spesso modifiche ai flussi di lavoro, alle competenze e alla mentalità .
Gli analisti devono capire quando fidarsi dell'IA, quando metterla in discussione e come intervenire in modo efficace. I leader devono integrare l'IA nei processi decisionali senza automatizzare ciecamente il rischio.
Formazione, manuali e gestione del cambiamento devono evolversi di pari passo con la tecnologia. L'adozione dell'intelligenza artificiale non è solo un'iniziativa tecnologica. È un'iniziativa di trasformazione umana.
Quindi cosa possiamo fare?
Nonostante le sfide, credo fermamente che i vantaggi dell'IA in ambito sicurezza superino di gran lunga i rischi, se applicata correttamente. Ecco come consiglio alle organizzazioni di procedere:
- Inizia in piccolo e fai test rigorosi
- Scegli un caso d'uso mirato con un impatto misurabile. Esegui progetti pilota controllati. Convalida le prestazioni. Costruisci fiducia con i dati, non con le esagerazioni.
- Introdurre tempestivamente aspetti legali, rischi e sicurezza
- Non aspettare la fase contrattuale. Coinvolgi gli aspetti legali e di conformità per valutare in anticipo i termini di gestione dei dati, i rischi normativi e le implicazioni sulla supply chain.
Misura tutto
Monitora i KPI prima e dopo l'implementazione. Crea dashboard che parlino sia in termini di sicurezza che di business. Le metriche determinano il successo o il fallimento dei finanziamenti per l'IA.
Scegli partner con prove concrete di progetti di successo
Guarda oltre le demo. Richiedi referenze. Chiedi informazioni sull'assistenza post-vendita, sulla complessità dell'implementazione e sui risultati in ambienti come il tuo.
Cosa c'è dopo? Casi d'uso emergenti che vale la pena tenere d'occhio
Siamo ancora agli inizi del percorso verso l'integrazione dell'intelligenza artificiale nella sicurezza. I CISO lungimiranti stanno già esplorando:
- Copiloti AI per la gestione del firewall, GRC e automazione della conformitÃ
- Sfruttando feed di minacce potenziati dall'intelligenza artificiale che accelerano la risposta e l'accuratezza delle minacce zero-day
- Red teaming generativo e simulazione di attacco
- Infrastruttura multi-vendor auto-riparante
- Controlli di identità basati sul rischio forniti da intelligenza artificiale comportamentale
Questi casi d'uso si stanno spostando dai laboratori di innovazione alla produzione. Le organizzazioni che si stanno rafforzando ora saranno molto più preparate a capitalizzare.
Considerazione finale: ritardare non è difesa
L'intelligenza artificiale è qui, e lo sono anche i suoi avversari. Più aspetti, più terreno perdi. Ma questo non significa che dovresti lanciarti alla cieca.
Con un'attenta pianificazione, una governance trasparente e i partner giusti, la tua organizzazione può adottare l'intelligenza artificiale in modo sicuro, aumentando le capacità senza sacrificare il controllo.
Il futuro della sicurezza è migliorato. L'unica domanda è se sarai all'avanguardia o resterai indietro.












