Leader del pensiero
Nella mente del CISO di oggi: come gestire l'entusiasmo per l'intelligenza artificiale e il caos degli hacker

Come CISO, ci troviamo in prima linea in un paradosso della sicurezza informatica. Da un lato, l'IA offre promesse trasformative, con la capacità di promuovere velocità, efficienza e innovazione. Dall'altro, introduce un livello di complessità, scalabilità e rischio mai visto prima.
A causa della complessità degli attuali ambienti cloud ibridi, alimentati dall'adozione dell'intelligenza artificiale, quasi tutti (97%) i CISO stanno sempre più scendendo a compromessi nel modo in cui proteggono e gestiscono la loro infrastruttura.
Ciò sta costringendo i CISO a ricalibrare le proprie strategie di sicurezza informatica e a cambiare mentalità da "come possiamo tenere il passo" a "come possiamo guidare?"
Cloud pubblico: da campione di innovazione alla nostra più grande minaccia
Solo pochi anni fa, il cloud pubblico era sinonimo di agilità, risparmio sui costi e velocità. Ma quella stessa apertura e flessibilità che lo rendevano così attraente sono diventate anche il suo più grande punto debole. Oggi, Il 75% dei CISO identifica rappresenta il rischio per la sicurezza più grande di qualsiasi altro ambiente.
Cosa c'è dietro questo cambiamento? Alla base, l'incertezza del traffico di rete. Con l'implementazione di strumenti di intelligenza artificiale generativa e LLM da parte delle organizzazioni, l'infrastruttura cloud ibrida sta vivendo un'impennata senza precedenti nei volumi di dati. Infatti, un'organizzazione su tre afferma ora che il proprio traffico di rete è raddoppiato grazie all'intelligenza artificiale. Questi flussi di dati esponenziali non solo stanno sovraccaricando i sistemi, ma stanno anche mettendo a nudo le falle nella visibilità del cloud e nel rilevamento delle minacce.
Gli attori della minaccia sono sfruttando queste incongruenze. Quasi la metà delle organizzazioni sta riscontrando un aumento degli attacchi mirati specificatamente ai propri LLM, con oltre la metà che ha riscontrato un incremento dei ransomware basati sull'intelligenza artificiale, in crescita del 17% rispetto all'anno scorso.
Non stiamo più parlando di rischi teorici. Stiamo parlando di una superficie di minaccia reale e in crescita, sfruttata attivamente da avversari sempre più sofisticati. Gli hacker si nascondono nel traffico crittografato, si confondono con flussi di dati di intelligenza artificiale legittimi e utilizzano l'automazione per scalare gli attacchi più velocemente di quanto la maggior parte delle organizzazioni possa rilevarli.
La roadmap del CISO per un'era guidata dall'intelligenza artificiale
Come possono i CISO riprendere il controllo in un ambiente in cui le regole cambiano ogni giorno e la posta in gioco è più alta che mai?
La risposta non sta nell'avere più strumenti, ma semplicemente nell'acquisire una migliore comprensione di ciò che accade in tutti i dati in movimento. Questo, unito a un cambiamento strategico nell'approccio alla sicurezza del cloud e dell'intelligenza artificiale, è ciò di cui i CISO hanno bisogno per guidare le proprie organizzazioni in questa trasformazione.
Ecco la roadmap che sto utilizzando per garantire chiarezza nella mia organizzazione mentre continuiamo ad adottare e innovare con l'intelligenza artificiale:
1. La visibilità deve essere fondamentale, non facoltativa
L'intelligenza artificiale sta ridefinendo ciò che dobbiamo vedere. La maggior parte degli strumenti di sicurezza legacy non è progettata per questo livello di complessità. I dati tradizionali provenienti da endpoint e log non sono più sufficienti. Abbiamo bisogno di una visibilità completa su tutti i dati in movimento, inclusi il traffico laterale est-ovest, i flussi crittografati e i comportamenti specifici dell'intelligenza artificiale come l'accesso LLM, le distribuzioni di intelligenza artificiale shadow e i tentativi di esfiltrazione dei dati nascosti nelle pipeline di inferenza. La chiave sta nella telemetria derivata dalla rete sotto forma di pacchetti, flussi e metadati che, uniti ai dati di log, offrono alle organizzazioni una profonda osservabilità sull'intera infrastruttura.
I responsabili della sicurezza lo hanno ripetuto più volte, ma oggi è più vero che mai: se non puoi vedere una cosa, non puoi proteggerla.
2. Integrare la sicurezza nelle iniziative di intelligenza artificiale fin dal primo giorno
Una delle tendenze più pericolose che abbiamo osservato è la disconnessione tra l'innovazione dell'IA e la supervisione della sicurezza. La sicurezza non può essere aggiunta a posteriori, soprattutto perché molti CISO sono ritenuti responsabili delle carenze. I responsabili della sicurezza hanno invece l'opportunità di ridefinire le strategie di sicurezza, bilanciando il potere trasformativo dell'IA con un solido modello di governance. I CISO dovrebbero contribuire allo sviluppo del framework per l'IA, collaborando con i team per definire fin dall'inizio l'uso accettabile, le soglie di rischio e le policy di governance. Questo garantirà che l'IA venga implementata e utilizzata in modo sicuro.
3. Consolidare gli strumenti, non moltiplicarli
La proliferazione di strumenti è un killer silenzioso. In risposta ai rischi emergenti dell'intelligenza artificiale, molte organizzazioni stanno aggiungere più strumenti, capacità e complessità. Ma questo crea solo confusione e ulteriori punti ciechi. Concentratevi invece sull'integrazione di un numero inferiore di piattaforme, ma più potenti, in grado di acquisire e arricchire la telemetria nell'intero ambiente.
4. Dotare i team di sicurezza dell'intelligenza artificiale, non opporvisi
È semplice: serve sicurezza per l'IA e serve l'IA per la sicurezza. I CISO dovrebbero garantire la visibilità in tempo reale di tutto il traffico GenAI e LLM, inclusi Utilizzo dell'intelligenza artificiale ombra, che si sospetta essere presente in quasi l'80% delle organizzazioni. È fondamentale che l'utilizzo dell'IA sia sicuro e tenuto in considerazione, ma approfondiamo anche quest'ultimo aspetto. Per mantenere un vantaggio competitivo, ci sono numerose opportunità per sfruttare i vantaggi di GenAI a vantaggio della propria organizzazione di sicurezza. Gli assistenti GenAI, ad esempio, possono aiutare gli analisti SOC a scrivere regole di rilevamento, indagare sugli incidenti e automatizzare i flussi di lavoro di risposta. L'intelligence del traffico basata sull'IA può segnalare anomalie nel comportamento dei modelli o rilevare l'utilizzo non autorizzato dei servizi GenAI. Il punto non è temere l'IA, ma abbracciarla alle nostre condizioni, con governance e scopo.
5. Parlare il linguaggio del consiglio
Infine, come CISO, dobbiamo impegnarci ad allineare noi stessi e le nostre priorità con il consiglio di amministrazione. La sicurezza informatica, soprattutto nell'era dell'intelligenza artificiale, sta diventando un'azienda con la stessa responsabilità del rischio finanziario o legale, ma dobbiamo garantire che budget, responsabilità e priorità siano condivisi a livello di consiglio di amministrazione.
Dalla mia esperienza, il consiglio di amministrazione non vuole sentire parlare di ipotesi e preoccupazioni tecniche. Piuttosto, desidera comprendere i rischi e i benefici aziendali. Secondo il sondaggio, l'88% dei leader afferma che la sicurezza dell'IA è ora una priorità a livello di consiglio di amministrazione. Questo ci offre una straordinaria opportunità per riformulare le nostre iniziative in termini di protezione del valore, resilienza operativa e vantaggio competitivo.
In quest'era di accelerazione digitale, i CISO hanno un'opportunità unica di guidare la trasformazione dell'IA. Promuovendo la visibilità, allineando la sicurezza informatica alle realtà in evoluzione dell'IA e traducendo il rischio in un linguaggio strategico comprensibile al consiglio di amministrazione, possono sbloccare un vantaggio competitivo per le proprie organizzazioni. Il futuro della sicurezza informatica risiede nell'adottare e rendere operativa l'IA contemporaneamente, in modo responsabile, intelligente e mirato.