interviste
Kevin Paige, CISO di ConductorOne – Serie di interviste

Kevin PaigePaige, CISO di ConductorOne, è un dirigente esperto di cybersecurity con oltre trent'anni di esperienza maturata nel settore pubblico, nelle aziende tecnologiche e nelle startup in rapida crescita. Con sede nella Bay Area di San Francisco, guida la strategia di sicurezza delle identità per l'azienda, fornendo al contempo consulenza alle organizzazioni in materia di sicurezza e governance della forza lavoro moderna. In precedenza, Paige ha ricoperto il ruolo di CISO presso Uptycs, Flexport e MuleSoft, dove ha contribuito a sviluppare e scalare i programmi di sicurezza durante periodi di rapida crescita. All'inizio della sua carriera, ha ricoperto ruoli di leadership e infrastrutturali nel settore della sicurezza presso Salesforce e xMatters, e ha prestato servizio sia nell'esercito che nell'aeronautica degli Stati Uniti. Oltre ai suoi ruoli operativi, è attivo nell'ecosistema delle startup di cybersecurity come consulente e investitore.
ConduttoreUno Sviluppa una piattaforma di governance delle identità e gestione degli accessi progettata per i moderni ambienti cloud e ibridi. La sua tecnologia offre una visibilità unificata su identità e autorizzazioni tra applicazioni, infrastrutture e sistemi on-premise, consentendo alle organizzazioni di automatizzare le revisioni degli accessi, applicare il principio del minimo privilegio e ridurre i rischi per la sicurezza basati sull'identità. Combinando l'analisi delle identità con flussi di lavoro automatizzati, la piattaforma aiuta i team di sicurezza a gestire gli accessi su larga scala, migliorando al contempo la conformità e l'efficienza operativa.
Hai alle spalle una lunga carriera che spazia dalle operazioni informatiche militari nell'aeronautica statunitense, a ruoli di leadership nella sicurezza aziendale presso aziende come MuleSoft, Flexport e Salesforce, fino al ruolo di CISO presso ConductorOne. Come si è evoluta la tua prospettiva sulla sicurezza dell'identità nel corso di questi ruoli e perché ritieni che l'identità sia diventata uno dei campi di battaglia più critici nella moderna sicurezza informatica?
Nell'Aeronautica Militare, la gestione delle identità era molto più semplice: livello di autorizzazione, necessità di sapere, tutto protetto da firewall, fatto. In MuleSoft, la questione si è trasformata in una questione di scalabilità: fornire servizi a migliaia di utenti su centinaia di applicazioni SaaS senza creare lacune. In Flexport, il perimetro di sicurezza è scomparso del tutto e l'identità è diventata l'unico controllo che funzionava indipendentemente dalla posizione dell'utente.
Oggi, in ConductorOne, l'identità sta subendo la sua trasformazione più radicale. Non si tratta più solo di persone, ma di macchine, API, account di servizio e agenti di intelligenza artificiale che agiscono in modo autonomo. Gli strumenti che la maggior parte delle organizzazioni utilizza sono stati progettati per un mondo che non esiste più.
L'identità è il campo di battaglia cruciale perché influenza ogni aspetto della vita. Si possono avere i migliori sistemi di sicurezza degli endpoint e di segmentazione della rete al mondo, ma se qualcuno ha accesso non autorizzato, tutto ciò è inutile.
Il vostro prossimo report sul futuro dell'identità ha rilevato che il 95% delle aziende afferma che gli agenti di intelligenza artificiale svolgono già attività IT o di sicurezza in modo autonomo. Che tipo di attività svolgono concretamente questi agenti oggi e con quale rapidità prevedete che aumenterà il loro livello di autonomia?
Ciò che mi ha sorpreso non è stata l'adozione, ma la velocità. L'anno scorso il 96% aveva previsto di implementare gli agenti. Quest'anno il 95% lo ha già fatto. Non si tratta di una curva graduale, ma di un vero e proprio superamento di una soglia.
Gli agenti gestiscono i flussi di lavoro dell'help desk, la valutazione degli avvisi, le revisioni degli accessi, il provisioning e, in alcuni casi, la risoluzione automatizzata dei problemi. L'aspetto che molti trascurano è che il 64% delle organizzazioni consente già agli agenti di agire in autonomia, con una sola revisione successiva all'azione. L'agente agisce per primo, un essere umano verifica in seguito, se mai effettua una verifica.
Gli operatori che oggi si occupano dell'assistenza clienti entro 12 mesi prenderanno decisioni in materia di sicurezza. La questione non è se aumenterà l'autonomia, ma se la governance terrà il passo. Al momento, non lo sta facendo.
Il rapporto mette in luce l'ascesa delle identità non umane, tra cui le interfacce di programmazione delle applicazioni (API), i bot e gli agenti di intelligenza artificiale. Perché queste identità artificiali si stanno diffondendo così rapidamente e perché molte organizzazioni faticano ancora a gestirle efficacemente?
Tre forze convergenti. L'adozione del cloud e del SaaS implica che ogni integrazione necessiti di una propria identità. Il DevOps genera identità di macchina su larga scala: ogni pipeline, container e microservizio. E gli agenti di intelligenza artificiale stanno aggiungendo una categoria completamente nuova che non si limita a detenere l'accesso, ma lo utilizza per prendere decisioni.
Le organizzazioni incontrano difficoltà perché gli strumenti non sono stati progettati per questo. I sistemi IAM tradizionali presuppongono una persona che effettua l'accesso e la disconnessione. Le identità non umane operano in modo continuativo, non rispondono all'autenticazione a più fattori (MFA), spesso hanno credenziali persistenti e accumulano privilegi perché nessuno ne controlla l'accesso come fa con quello di una persona.
Esiste anche un problema di proprietà. Quando uno sviluppatore crea un account di servizio e lo sposta in un altro team, chi ne è il proprietario? Spesso nessuno. Le ricerche di settore dimostrano che il 97% degli NHI (Network Health Information) presenta privilegi eccessivi. Non si tratta di un problema di strumenti, bensì di una lacuna nella governance.
Quasi la metà delle aziende afferma che le identità non umane superano ormai in numero gli utenti umani, eppure solo una piccola percentuale di imprese ha piena visibilità su ciò a cui tali identità possono accedere. Quali rischi emergono quando le organizzazioni perdono la visibilità su queste identità automatizzate?
Tre livelli. Primo, credenziali compromesse. Le infrastrutture di rete spesso utilizzano chiavi API a lunga durata o token statici che non vengono rinnovati. Un utente malintenzionato in possesso di uno di questi ha un accesso persistente che non fa scattare gli stessi allarmi di un account umano compromesso.
In secondo luogo, l'accumulo di privilegi. Le integrazioni che inizialmente avevano accesso in lettura ottengono silenziosamente anche l'accesso in scrittura. Nessuno rimuove i vecchi permessi perché nessuno si occupa di verificare le identità delle macchine.
In terzo luogo – e questo sta emergendo rapidamente – gli agenti di intelligenza artificiale amplificano entrambi questi rischi. Un account di servizio compromesso con accesso in lettura al database è un problema. Un agente di intelligenza artificiale con lo stesso accesso, in grado di riassumere, condividere e agire autonomamente in base a ciò che legge, è esponenzialmente peggiore.
Il nostro rapporto ha rilevato che la visibilità dell'NHI (National Health Insurance) è in realtà in calo, passando dal 30% al 22% su base annua. Le organizzazioni scoprono il problema più velocemente di quanto riescano a risolverlo.
Molte aziende considerano l'IA un acceleratore di produttività, ma la vostra ricerca suggerisce che può anche ampliare silenziosamente la superficie di attacco. In che modo l'adozione di strumenti e agenti di IA crea nuovi rischi per la sicurezza legati all'identità?
Il rischio più immediato è quello di concedere involontariamente autorizzazioni eccessive. I team implementano un agente di intelligenza artificiale per un flusso di lavoro specifico, ma gli concedono un accesso più ampio del necessario perché definire le autorizzazioni per le macchine è più complesso che per le persone. L'agente non visualizza solo i ticket di assistenza, ma l'intero database dei clienti.
Poi c'è l'iniezione di prompt. Gli agenti che elaborano input esterni possono essere manipolati per compiere azioni indesiderate. Se l'agente ha accesso esteso, un prompt appositamente creato trasforma un assistente utile in uno strumento di esfiltrazione dati.
Il terzo problema è l'IA ombra. Gartner riporta che oltre il 50% dell'utilizzo dell'IA nelle aziende non è autorizzato. Ogni connessione non autorizzata crea nuove identità e superfici di attacco che il team di sicurezza non è in grado di rilevare.
L'ho visto con i miei occhi: qualcuno ha dato a un agente l'accesso a sistemi interni e, nel giro di pochi giorni, qualcuno lo ha indotto a rivelare la retribuzione e il calendario delle ferie dell'amministratore delegato. L'agente ha funzionato come previsto. Il problema risiedeva nel modello di accesso.
La gestione delle identità e degli accessi si è tradizionalmente concentrata sull'accesso dei dipendenti ai sistemi. Come deve evolversi la governance delle identità ora che gli agenti software autonomi interagiscono sempre più con l'infrastruttura e prendono decisioni?
Il cambiamento fondamentale è da periodico a continuo. La governance tradizionale si basa su revisioni trimestrali e ricertificazioni annuali. Gli agenti di intelligenza artificiale operano 24 ore su 24, 7 giorni su 7, prendono migliaia di decisioni tra un ciclo di revisione e l'altro e possono modificare il proprio comportamento in base all'aggiornamento del modello. Quando una revisione trimestrale individua un agente con privilegi eccessivi, il danno è ormai fatto.
Tre cose devono cambiare. La governance deve essere continua, ovvero la valutazione degli accessi deve avvenire in tempo reale, non secondo una pianificazione. Deve essere basata su politiche, non su ruoli: politiche dinamiche specifiche per determinate attività, non assegnazioni di ruoli statiche. E deve essere completamente verificabile: ogni azione dell'agente deve essere registrata e tracciabile fino a chi l'ha autorizzata.
La gestione dell'identità deve operare alla velocità delle macchine per governare attori che operano alla velocità delle macchine. È proprio in questa discrepanza che risiede il rischio.
ConductorOne descrive la sua piattaforma come uno strumento che aiuta le organizzazioni a proteggere congiuntamente le identità umane e quelle delle macchine. Da un punto di vista tecnico, quali modifiche sono necessarie all'infrastruttura di identità per proteggere adeguatamente gli agenti di intelligenza artificiale che operano all'interno degli ambienti aziendali?
Il cambiamento più significativo è l'unificazione. La maggior parte delle organizzazioni gestisce le identità umane tramite il proprio IDP (Identity Provider) e le identità delle macchine attraverso un insieme eterogeneo di gestori di segreti e processi manuali. Gli agenti di intelligenza artificiale si collocano nello spazio intermedio tra questi due mondi.
Tre cose devono accadere. Ogni agente di IA ha bisogno di un'identità di prim'ordine: non un account di servizio condiviso, non le credenziali di uno sviluppatore, ma un'identità dedicata con un proprio ciclo di vita e una traccia di controllo. Queste identità devono avere un accesso just-in-time e just-enough: autorizzazioni minime per un'attività specifica, revocate al termine dell'attività stessa. E le organizzazioni hanno bisogno di un monitoraggio continuo di ciò che gli agenti fanno effettivamente con il loro accesso, non solo di ciò che è loro consentito fare.
In ConductorOne, gestiamo le identità umane e non umane attraverso un unico piano di controllo. Questa è la direzione in cui si sta muovendo il settore: il 45% utilizza già strumenti IAM per la gestione delle identità non umane, e un altro 45% prevede di farlo entro 12 mesi. La gestione delle identità basata esclusivamente sugli esseri umani sta volgendo al termine.
Alcune organizzazioni tentano di gestire il rischio legato all'IA limitando o vietando completamente gli strumenti di IA. In base a ciò che si osserva nelle aziende, questo approccio è realistico o si limita a spingere l'utilizzo dell'IA verso ambienti non controllati e meno visibili?
Lo spinge sottoterra. Ogni volta. L'ho visto con ogni ondata tecnologica: BYOD, cloud, SaaS. Quando la sicurezza dice di no, la gente non si ferma. Smette solo di dirlo alla sicurezza.
Secondo Gartner, l'IA ombra rappresenta oltre il 50% dell'utilizzo dell'IA nelle aziende. Vietare l'IA non elimina il rischio, ma la visibilità. E non si può proteggere ciò che non si vede.
L'approccio migliore: rendere il percorso sicuro il più semplice. Se l'adozione dell'IA regolamentata è rapida e semplice, le persone la utilizzeranno. Se invece ci vogliono sei settimane per ottenere l'approvazione, si creeranno un account personale durante la pausa pranzo.
Vietare l'intelligenza artificiale nel 2026 è come vietare il cloud nel 2016. Non si previene il rischio, ma ci si assicura di non vederlo arrivare.
Con l'aumentare dell'autonomia dei sistemi di intelligenza artificiale, il confine tra automazione e autorità si fa sempre più labile. Come dovrebbero quindi le organizzazioni affrontare le questioni di governance, approvazione e supervisione quando gli agenti di IA sono in grado di intraprendere azioni operative?
Pensate alla delega, non all'automazione. Quando delegate a una persona, definite l'ambito di lavoro, la ritenete responsabile e ne verificate l'operato. Lo stesso principio si applica agli agenti.
Ciò significa un'autonomia a livelli differenziati. Le attività ripetibili a basso rischio, come il ripristino delle password e l'instradamento dei ticket, vengono eseguite autonomamente con registrazione degli eventi. Le azioni a rischio medio, come le modifiche alla configurazione di sicurezza e l'accesso con privilegi elevati, richiedono l'approvazione umana o la notifica in tempo reale. Le azioni ad alto rischio, come i dati sensibili, l'accesso con privilegi elevati e le modifiche irreversibili, richiedono un'autorizzazione esplicita prima che l'agente agisca.
Ogni agente necessita inoltre di un proprietario umano responsabile delle proprie azioni. Senza questa catena di comando, gli agenti operano in un vuoto di governance in cui nessuno risponde delle conseguenze.
Il nostro rapporto ha rilevato che solo il 19% applica in modo continuo le policy basate sugli agenti. Ciò significa che l'81% si affida ad autorizzazioni statiche e alla speranza. Questa non è governance.
Guardando al futuro, quali sono i passi più importanti che i responsabili della sicurezza dovrebbero compiere nei prossimi 12-24 mesi per preparare i propri framework di identità e accesso a un mondo in cui gli agenti di intelligenza artificiale funzionano come vere e proprie identità digitali all'interno dell'azienda?
Cinque priorità.
Innanzitutto, bisogna avere visibilità. La maggior parte delle organizzazioni non sa quante identità non umane possiede. Non si può governare ciò che non si vede.
In secondo luogo, trattate ogni agente IA come un utente. Identità dedicate, autorizzazioni circoscritte, rotazione delle credenziali, revisioni degli accessi. Se non concedereste a una persona l'accesso amministrativo permanente a tutto, non concedetelo nemmeno a un agente.
In terzo luogo, passare da una governance periodica a una continua. Le revisioni trimestrali non possono tenere il passo con gli agenti che cambiano comportamento in pochi secondi.
In quarto luogo, create ora il vostro quadro normativo, prima di avere centinaia di agenti. Definite i limiti di autonomia, i requisiti di approvazione e le responsabilità finché la situazione è ancora gestibile.
Quinto, unificare la governance tra identità umane e non umane. Sistemi separati creano lacune.
I vincitori non saranno le organizzazioni che hanno implementato la maggiore quantità di intelligenza artificiale, bensì quelle che hanno creato un sistema di gestione delle identità in grado di operare alla velocità delle macchine.
Grazie per l'ottima intervista, i lettori che desiderano saperne di più dovrebbero visitare ConduttoreUno.












