Seguici sui social

Steve Wilson, Chief AI e Product Officer di Exabeam – Serie di interviste

interviste

Steve Wilson, Chief AI e Product Officer di Exabeam – Serie di interviste

mm

Steve Wilson è Chief AI and Product Officer di Exabeam, dove il suo team applica tecnologie di intelligenza artificiale all'avanguardia per affrontare le sfide della sicurezza informatica nel mondo reale. Ha fondato e co-presiede l'OWASP Gen AI Security Project, l'organizzazione che ha stilato la classifica OWASP Top 10 for Large Language Model Security, standard di settore.

Il suo libro pluripremiato, “Manuale dello sviluppatore per la sicurezza dei modelli linguistici di grandi dimensioni" (O'Reilly Media), è stato selezionato come il miglior libro all'avanguardia sulla sicurezza informatica dalla rivista Cyber ​​Defense Magazine.

Exabeam Exabeam è leader nell'intelligence e nell'automazione che alimenta le operazioni di sicurezza per le aziende più intelligenti al mondo. Combinando la portata e la potenza dell'IA con la forza della nostra analisi comportamentale e dell'automazione leader del settore, le organizzazioni ottengono una visione più olistica degli incidenti di sicurezza, individuano anomalie non rilevate da altri strumenti e ottengono risposte più rapide, accurate e ripetibili. Exabeam consente ai team di sicurezza globali di combattere le minacce informatiche, mitigare i rischi e semplificare le operazioni.

Il tuo nuovo incarico è Chief AI and Product Officer presso Exabeam. In che modo questo riflette la crescente importanza dell'IA nella sicurezza informatica?

La sicurezza informatica è stata tra i primi settori ad adottare concretamente il machine learning: in Exabeam, utilizziamo il machine learning come fulcro del nostro motore di rilevamento da oltre un decennio per identificare comportamenti anomali che potrebbero sfuggire agli esseri umani. Con l'avvento di nuove tecnologie di intelligenza artificiale, come gli agenti intelligenti, l'intelligenza artificiale è passata dall'essere un elemento importante a un ruolo assolutamente centrale.

Il mio ruolo congiunto di Chief AI e Product Officer presso Exabeam riflette esattamente questa evoluzione. In un'azienda profondamente impegnata a integrare l'intelligenza artificiale in tutti i suoi prodotti, e in un settore come quello della sicurezza informatica in cui il ruolo dell'intelligenza artificiale è sempre più cruciale, era logico unificare la strategia di intelligenza artificiale e la strategia di prodotto sotto un unico ruolo. Questa integrazione ci garantisce un allineamento strategico per fornire soluzioni trasformative basate sull'intelligenza artificiale agli analisti della sicurezza e ai team operativi che più dipendono da noi.

Exabeam è pioniera nell'applicazione dell'"intelligenza artificiale agente" nelle operazioni di sicurezza. Puoi spiegare cosa significa in pratica e in che modo si differenzia dagli approcci di intelligenza artificiale tradizionali?

L'intelligenza artificiale agentica rappresenta un'evoluzione significativa rispetto agli approcci di intelligenza artificiale tradizionali. È orientata all'azione: avvia proattivamente i processi, analizza le informazioni e presenta approfondimenti prima ancora che gli analisti li richiedano. Oltre alla mera analisi dei dati, l'intelligenza artificiale agentica funge da consulente, offrendo raccomandazioni strategiche all'intero SOC, guidando gli utenti verso le soluzioni più semplici e fornendo indicazioni passo dopo passo per migliorare il loro livello di sicurezza. Inoltre, gli agenti operano come pacchetti specializzati, non come un unico chatbot ingombrante, ciascuno personalizzato con personalità e set di dati specifici che si integrano perfettamente nel flusso di lavoro di analisti, ingegneri e manager per fornire un'assistenza mirata ed efficace.

Con Exabeam Nova che integra più agenti di intelligenza artificiale nel flusso di lavoro del SOC, quale sarà il futuro del ruolo dell'analista della sicurezza? Si sta evolvendo, riducendosi o diventando più specializzato?

Il ruolo dell'analista della sicurezza è in continua evoluzione. Analisti, ingegneri della sicurezza e responsabili SOC sono sommersi da dati, avvisi e casi. Il vero cambiamento futuro non riguarda solo il risparmio di tempo in attività banali – sebbene gli agenti siano certamente d'aiuto in questo – ma l'elevazione del ruolo di tutti a quello di team leader. Gli analisti continueranno a necessitare di solide competenze tecniche, ma ora guideranno un team di agenti pronti ad accelerare i loro compiti, amplificare le loro decisioni e promuovere concretamente miglioramenti nella sicurezza. Questa trasformazione consente agli analisti di diventare orchestratori strategici piuttosto che semplici addetti alla risposta tattica.

Dati recenti mostrano una discrepanza tra dirigenti e analisti riguardo all'impatto dell'IA sulla produttività. Perché ritieni che esista questo divario di percezione e come si può colmarlo?

Dati recenti mostra una chiara discrepanza: il 71% dei dirigenti ritiene che l'IA aumenti significativamente la produttività, ma solo il 22% degli analisti in prima linea, gli utenti giornalieri, è d'accordo. In Exabeam, abbiamo visto questo divario crescere parallelamente alla recente frenesia di promesse di IA nella sicurezza informatica. Non è mai stato così facile creare demo di IA accattivanti e i fornitori si affrettano ad affermare di aver risolto ogni sfida dei SOC. Sebbene queste demo inizialmente abbaglino i dirigenti, molte non raggiungono l'obiettivo: nelle mani degli analisti. Il potenziale c'è, e ci sono opportunità di reale ritorno, ma c'è ancora troppo rumore e troppo pochi miglioramenti significativi. Per colmare questo divario di percezione, i dirigenti devono dare priorità a strumenti di IA che diano realmente potere agli analisti, non solo impressionare in una demo. Quando l'IA migliora davvero l'efficacia degli analisti, ne conseguiranno fiducia e reali miglioramenti della produttività.

L'intelligenza artificiale sta accelerando il rilevamento e la risposta alle minacce, ma come mantenere l'equilibrio tra automazione e giudizio umano negli incidenti di sicurezza informatica ad alto rischio?

Le capacità dell'IA stanno progredendo rapidamente, ma gli attuali "modelli linguistici" fondamentali alla base degli agenti intelligenti erano originariamente progettati per compiti come la traduzione linguistica, non per processi decisionali articolati, la teoria dei giochi o la gestione di fattori umani complessi. Questo rende il giudizio umano più essenziale che mai nella sicurezza informatica. Il ruolo dell'analista non viene sminuito dall'IA; anzi, viene elevato. Gli analisti sono ora responsabili di team, sfruttando la loro esperienza e intuizione per guidare e dirigere più agenti, garantendo che le decisioni rimangano basate sul contesto e sulle sfumature. In definitiva, bilanciare l'automazione con il giudizio umano significa creare una relazione simbiotica in cui l'IA amplifica le competenze umane, non le sostituisce.

Come evolve la strategia del tuo prodotto quando l'intelligenza artificiale diventa un principio di progettazione fondamentale anziché un componente aggiuntivo?

In Exabeam, la nostra strategia di prodotto è fondamentalmente plasmata dall'intelligenza artificiale come principio di progettazione fondamentale, non come un'aggiunta superficiale. Abbiamo sviluppato Exabeam da zero per supportare l'apprendimento automatico, dall'acquisizione dei log, all'analisi, all'arricchimento e alla normalizzazione, per popolare un robusto Common Information Model specificamente ottimizzato per alimentare i sistemi di ML. Dati strutturati e di alta qualità non sono solo importanti per i sistemi di intelligenza artificiale, sono la loro linfa vitale. Oggi integriamo direttamente i nostri agenti intelligenti nei flussi di lavoro critici, evitando chatbot generici e poco maneggevoli. Al contrario, ci concentriamo su casi d'uso cruciali che offrono vantaggi concreti e tangibili ai nostri utenti.

Con Exabeam Nova, il vostro obiettivo è "passare dall'assistenza all'autonomia". Quali sono le tappe fondamentali per raggiungere operazioni di sicurezza completamente autonome?

L'idea di operazioni di sicurezza completamente autonome è affascinante ma prematura. Gli agenti completamente autonomi, in qualsiasi ambito, semplicemente non sono ancora efficienti o sicuri. Sebbene il processo decisionale nell'IA stia migliorando, non ha ancora raggiunto un'affidabilità pari a quella umana e non lo raggiungerà per un po' di tempo. In Exabeam, il nostro approccio non è finalizzato all'autonomia totale, che il mio gruppo presso OWASP identifica come una vulnerabilità fondamentale nota come "Excessive Agency". Concedere agli agenti più autonomia di quanta ne possa essere testata e convalidata in modo affidabile mette le operazioni su un terreno rischioso. Il nostro obiettivo è invece quello di creare team di agenti intelligenti, capaci ma attentamente guidati, che lavorino sotto la supervisione di esperti umani nel SOC. Questa combinazione di supervisione umana e assistenza mirata da parte degli agenti è la strada da seguire realistica e di impatto.

Quali sono state le maggiori sfide che avete dovuto affrontare nell'integrare GenAI e machine learning nella scala richiesta per la sicurezza informatica in tempo reale?

Una delle maggiori sfide nell'integrazione di GenAI e machine learning su larga scala per la sicurezza informatica è bilanciare velocità e precisione. GenAI da sola non può sostituire l'enorme portata di ciò che il nostro motore di ML ad alta velocità gestisce: l'elaborazione continua di terabyte di dati. Persino gli agenti di IA più avanzati hanno una "finestra di contesto" ampiamente insufficiente. La nostra ricetta prevede invece l'utilizzo del ML per distillare enormi quantità di dati in informazioni fruibili, che i nostri agenti intelligenti poi traducono e rendono operative in modo efficace.

Hai co-fondato l'OWASP Top 10 per le applicazioni LLM. Cosa ti ha ispirato e come pensi che influenzerà le migliori pratiche di sicurezza dell'IA?

Quando ho lanciato l'OWASP Top 10 per le domande di ammissione agli LLM all'inizio del 2023, le informazioni strutturate sulla sicurezza degli LLM e della GenAI erano scarse, ma l'interesse era incredibilmente alto. Nel giro di pochi giorni, oltre 200 volontari hanno aderito all'iniziativa, apportando opinioni e competenze diverse per dare forma alla lista originale. Da allora, è stata letta ben oltre 100,000 volte ed è diventata fondamentale per gli standard internazionali del settore. Oggi, l'impegno si è esteso all'OWASP Gen AI Security Project, che copre aree come l'AI Red Teaming, la sicurezza dei sistemi agenti e la gestione degli usi offensivi dell'IA GenAI nella sicurezza informatica. Il nostro gruppo ha recentemente superato i 10,000 membri e continua a promuovere le pratiche di sicurezza dell'IA a livello globale.

Il tuo libro, 'Manuale dello sviluppatore per la sicurezza LLM', ha vinto un premio importante. Qual è il principio o l'insegnamento più importante del libro che ogni sviluppatore di intelligenza artificiale dovrebbe comprendere quando crea applicazioni sicure?

La lezione più importante del mio libro, "The Developer's Playbook for LLM Security", è semplice: "da un grande potere derivano grandi responsabilità". Sebbene comprendere i concetti tradizionali di sicurezza rimanga essenziale, gli sviluppatori si trovano ora ad affrontare una serie di sfide completamente nuove, tipiche degli LLM. Questa potente tecnologia non è un lasciapassare, ma richiede pratiche di sicurezza proattive e ponderate. Gli sviluppatori devono ampliare la propria prospettiva, riconoscendo e affrontando queste nuove vulnerabilità fin dall'inizio, integrando la sicurezza in ogni fase del ciclo di vita delle loro applicazioni di intelligenza artificiale.

Come pensi che evolverà la forza lavoro nel settore della sicurezza informatica nei prossimi 5 anni, man mano che l'intelligenza artificiale agentiva diventerà sempre più diffusa?

Siamo attualmente in una corsa agli armamenti dell'IA. Gli avversari stanno impiegando aggressivamente l'IA per perseguire i loro obiettivi malevoli, rendendo i professionisti della sicurezza informatica più cruciali che mai. I prossimi cinque anni non ridurranno la forza lavoro nel settore della sicurezza informatica, ma la eleveranno. I professionisti devono adottare l'IA, integrandola nei loro team e nei loro flussi di lavoro. I ruoli di sicurezza si sposteranno verso un comando strategico, meno basato sullo sforzo individuale e più sull'orchestrazione di una risposta efficace con un team di agenti guidati dall'IA. Questa trasformazione consente ai professionisti della sicurezza informatica di guidare con decisione e sicurezza la battaglia contro minacce in continua evoluzione.

Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare Exabeam

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.