Connect with us

Intervjuer

Kevin Paige, CISO i ConductorOne – Intervju-serie

mm

Kevin Paige, CISO i ConductorOne, er en erfaren cybersecurity-ekspert med over tre tiår med erfaring fra regjering, bedriftsteknologi og raskt voksende startups. Basert i San Francisco Bay Area, leder han identitetssikkerhetsstrategi for selskapet og rådgir organisasjoner om moderne arbeidsstedsikkerhet og styring. Paige var tidligere CISO i Uptycs, Flexport og MuleSoft, der han hjalp til å bygge og skale sikkerhetsprogrammer under perioder med rask vekst. Tidligere i sin karriere hadde han sikkerhetsleder- og infrastrukturroller i Salesforce og xMatters, og tjenestegjorde i både USAs hær og luftforsvar. I tillegg til sine operative roller er han aktiv i cybersecurity-startup-økosystemet som rådgiver og investor.

ConductorOne utvikler en plattform for identitetstyring og tilgangsstyring designet for moderne sky- og hybridmiljøer. Deres teknologi gir enhetlig oversikt over identiteter og tillatelser på tvers av applikasjoner, infrastruktur og lokale systemer, og muliggjør at organisasjoner kan automatisere tilgangsrevisioner, påtvinge minstevilkårstilgang og redusere identitetsbaserte sikkerhetsrisikoer. Ved å kombinere identitetsanalyse med automatiserte arbeidsflyter hjelper plattformen sikkerhetsteamene med å håndtere tilgang i stor skala samtidig som det forbedrer overholdelse og operasjonell effisiens.

Du har hatt en lang karriere som spenner over militær cyberoperasjoner i USAs luftforsvar, bedriftssikkerhetslederroller i selskaper som MuleSoft, Flexport og Salesforce, og nå tjener som CISO i ConductorOne. Hvordan har din perspektiv på identitetssikkerhet utviklet seg over disse rollene, og hvorfor tror du identitet har blitt ett av de viktigste slagfeltene i moderne sikkerhet?

I luftforsvaret var identitet mye enklere — sikkerhetsklarering, behov for å vite, alt bak brannmurer, ferdig. Hos MuleSoft handlet det om skala — å provisionere tusenvis av brukere på hundrevis av SaaS-applikasjoner uten å skape hull. Hos Flexport forsvant periferien helt og identitet var den eneste kontrollen som fortsatt fungerte uansett hvor noen var.

Nå i ConductorOne gjennomgår identitet sin mest grunnleggende transformasjon. Det handler ikke lenger bare om mennesker — det handler om maskiner, API-er, tjennekontoer og AI-agenter som handler autonomt. Verktøyene de fleste organisasjoner bruker ble designet for en verden som ikke eksisterer lenger.

Identitet er det kritiske slagfeltet fordi det berører alt. Du kan ha den beste endpoint-sikkerhet og nettverkssegmentering i verden — hvis noe har feil tilgang, betyr det ingenting.

Din kommende rapport om fremtiden for identitet fant at 95 % av bedriftene sier at AI-agenter allerede utfører autonome IT- eller sikkerhetsoppgaver. Hva slags oppgaver utfører disse agentene faktisk i dag, og hvor raskt forventer du at deres autonomi-nivå øker?

Hva som overrasket meg, var ikke adopsjonen — det er hastigheten. Forrige år planla 96 % å deployere agenter. I år har 95 % allerede gjort det. Det er ikke en gradvis kurve. Det er en terskelovergang.

Agenter håndterer hjelpdeskarbeidsflyter, varslingstriage, tilgangsrevisioner, provisioning og i noen tilfeller automatisert feilretting. Det folk flest glemmer: 64 % av organisasjonene tillater allerede agenter å handle autonomt med bare etterfølgende gjennomgang. Agenten handler først, en menneske sjekker senere — hvis de sjekker det i det hele tatt.

Agentene som håndterer hjelpdeskoppgaver i dag vil ta sikkerhetsbeslutninger innen 12 måneder. Spørsmålet er ikke om autonomi øker — det er om styring holder pace. For øyeblikket gjør det ikke det.

Rapporten fremhever veksten av ikke-menneskelige identiteter — inkludert programmeringsgrensesnitt (API-er), boter og AI-agenter. Hvorfor vokser disse maskinidentitetene så raskt, og hvorfor sliter mange organisasjoner med å håndtere dem effektivt?

Tre konvergerende krefter. Sky- og SaaS-adoptsjon betyr at hver integrasjon trenger sin egen identitet. DevOps genererer maskinidentiteter i stor skala — hver pipeline, container og mikrotjeneste. Og AI-agenter legger til en helt ny kategori som ikke bare har tilgang, men også bruker den til å ta beslutninger.

Organisasjoner sliter fordi verktøyene ikke er bygget for dette. Tradisjonell IAM antar en person som logger inn og logger ut. Ikke-menneskelige identiteter opererer kontinuerlig, reagerer ikke på MFA, ofte har persistente legitimasjoner og akkumulerer privilegier fordi ingen gjennomgår deres tilgang som de gjør for en menneskelig.

Det er også et eierskapsproblem. Når en utvikler oppretter en tjenkekonto og flytter team, hvem eier den? Ofte ingen. Bransjeforskning viser at 97 % av ikke-menneskelige identiteter har eksessive privilegier. Det er ikke et verktøysproblem — det er et styringsgap.

Nære halvparten av selskapene sier at ikke-menneskelige identiteter nå overstiger antall menneskelige brukere, men bare en liten prosent av bedriftene har full oversikt over hva disse identitetene kan få tilgang til. Hva slags risiko oppstår når organisasjoner mister oversikt over disse automatiserte identitetene?

Tre lag. Først, kompromitterte legitimasjoner. Ikke-menneskelige identiteter bruker ofte langvarige API-nøkler eller statiske token som ikke roteres. En angriper med en av disse har persistent tilgang som ikke utløser samme alarmer som en kompromittert menneskelig konto.

Andre, privilegieakkumulering. Integrasjoner som startet med lese-tilgang får stille og rolig skrive-tilgang. Ingen fjerner gamle tillatelser fordi ingen gjennomgår maskinidentiteter.

Tredje — og dette utvikler seg raskt — AI-agenter forsterker begge disse risikoene. En kompromittert tjenkekonto med database-lese-tilgang er dårlig. En AI-agent med samme tilgang som kan handle autonomt og samtidig lese, dele og handle på det den leser, er eksponentielt verre.

Vår rapport fant at synlighet for ikke-menneskelige identiteter faktisk minker — fra 30 % til 22 % fra år til år. Organisasjoner oppdager problemet raskere enn de kan løse det.

Mange selskaper ser på AI som en produktivitetsakselerator, men din forskning antyder at det også kan utvide angrepsflaten. Hvordan skaper adopsjonen av AI-verktøy og -agenter nye identitetsrelaterte sikkerhetsrisikoer?

Den mest umiddelbare risikoen er utilsiktet over-tilgang. Team deployer en AI-agent for en arbeidsflyt, men gir den bredere tilgang enn nødvendig fordi det er vanskeligere å begrense tillatelser for maskiner enn for mennesker. Agenten ser ikke bare på supportbilletter — den ser hele kundedatabasen.

Så er det prompt-injeksjon. Agenter som behandler eksterne inndata kan manipuleres til å utføre uventede handlinger. Hvis agenten har bred tilgang, kan en konstruert prompt omdanne en hjelpsom assistent til et verktøy for data-eksfiltrering.

Tredje er skygge-AI. Gartner rapporterer at over 50 % av bedriftens AI-bruk er ikke-godkjent. Hver uautorisert tilkobling skaper nye identiteter og angrepsflater som sikkerhetsteamet ikke kan se.

Jeg har sett det førstehånd — noen ga en agent tilgang til interne systemer, og innen få dager hadde noen promptet den til å avsløre CEOens kompensasjon og ferieplan. Agenten fungerte som den skulle. Feilene var tilgangsmodellen.

Identitet og tilgangsstyring har tradisjonelt fokusert på ansatte som logger inn på systemer. Hvordan må identitetsstyring utvikle seg nå som autonome programvareagenter stadig oftere interagerer med infrastruktur og tar beslutninger?

Den grunnleggende skiftet er fra periodisk til kontinuerlig. Tradisjonell styring opererer på kvartalsvis gjennomgang og årlig gjen-certifisering. AI-agenter opererer 24/7, tar tusenvis av beslutninger mellom gjennomgangssyklusene og kan endre atferd basert på en modelloppdatering. Før en kvartalsvis gjennomgang fanger en over-privilegert agent, er skaden allerede skjedd.

Tre ting må endre seg. Styring må være kontinuerlig — evaluere tilgang i sanntid, ikke på en timeplan. Den må være politikk-drevet og ikke rolle-drevet — dynamiske politikker begrenset til bestemte oppgaver, ikke statiske rolletildelinger. Og den må være fullstendig auditerbar — hver agent-handling logget og sporbar tilbake til hvem som autoriserte den.

Identitetsstyring må fungere med maskin-hastighet for å styre maskin-hastighets-aktører. Det er der risikoen bor.

ConductorOne beskriver sin plattform som en som hjelper organisasjoner med å sikre både menneskelige og maskinidentiteter sammen. Fra et teknisk ståsted, hva slags endringer er nødvendige i identitets-infrastruktur for å sikre AI-agenter som opererer i bedriftsmiljøer?

Den største endringen er enhetliggjøring. De fleste organisasjoner håndterer menneskelige identiteter gjennom sin IDP og maskinidentiteter gjennom en lappeteppe av hemmelighetsbeholdere og manuelle prosesser. AI-agenter faller i gapet mellom disse verdener.

Tre ting må skje. Hver AI-agent må ha en førsteklasses-identitet — ikke en delt tjenkekonto, ikke en utviklers legitimasjon, men en dedikert identitet med sin egen livssyklus og audit-spor. Disse identitetene må ha tilgang når som helst, bare nok tilgang — minimums-tilgang for en bestemt oppgave, tilbakekalt når oppgaven er ferdig. Og organisasjoner må ha kontinuerlig overvåking av hva agenter faktisk gjør med sin tilgang, ikke bare hva de er tillatt å gjøre.

Hos ConductorOne styrer vi menneskelige og ikke-menneskelige identiteter gjennom en enkelt kontrollplan. Det er der bransjen er på vei — 45 % bruker allerede IAM-verktøy for NHI-styring, ytterligere 45 % planlegger å gjøre det innen 12 måneder. Menneske-identitetsstyring alene er på vei ut.

Noen organisasjoner prøver å håndtere AI-risiko ved å begrense eller forbyte AI-verktøy helt. Basert på hva du ser over bedrifter, er denne tilnærmingen realistisk, eller driver den bare AI-bruk under jorden og mindre synlig?

Den driver det under jorden. Hver gang. Jeg har sett dette med hver teknologibølge — BYOD, sky, SaaS. Når sikkerhet sier nei, stopper folk ikke. De stopper bare å fortelle sikkerhet om det.

Gartner rapporterer at skygge-AI utgjør over 50 % av bedriftens AI-bruk. Å forbyte AI eliminerer ikke risiko — det eliminerer synlighet. Og du kan ikke sikre det du ikke kan se.

Tilnærmingen er bedre: gjør den sikre veien den enkle veien. Hvis styrt AI-adoptsjon er rask og enkel, vil folk bruke det. Hvis det tar seks uker å få godkjenning, vil de spinne opp en personlig konto på lunchpausen.

Å forbyte AI i 2026 er som å forbyte sky i 2016. Du forsøker ikke å forebygge risiko — du forsøker å sikre at du ikke ser det komme.

Når AI-systemer begynner å handle mer uavhengig, blir grensen mellom automatisering og myndighet utydelig. Hvordan bør organisasjoner tenke om styring, godkjenning og tilsyn når AI-agenter kan ta operasjonelle handlinger?

Tenker delegering, ikke automatisering. Når du delegerer til en person, definerer du omfang, holder dem ansvarlige og gjennomgår deres arbeid. Samme rammeverk gjelder for agenter.

Det betyr trinnvis autonomi. Lav-risikable, gjentakende oppgaver — passord-tilbakestilling, billett-ruting — kjører autonomt med logging. Medium-risikable handlinger — sikkerhetskonfigurasjonsendringer, forhøyet tilgang — krever menneskelig godkjenning eller sanntids-varsling. Høy-risikable handlinger — sensitiv data, privilegert tilgang, irreversibele endringer — krever eksplisitt autorisasjon før agenten handler.

Hver agent må også ha en menneskelig eier som er ansvarlig for hva den gjør. Uten den kjeden opererer agenter i et styringsvakuum hvor ingen svarer for konsekvensene.

Vår rapport fant at bare 19 % har kontinuerlig, politikk-basert gjennomføring for agenter. Det betyr at 81 % avhenger av statiske tillatelser og håp. Det er ikke styring.

Ser fremover, hva er de viktigste skrittene sikkerhetsledere bør ta de neste 12–24 månedene for å forberede sine identitets- og tilgangs-rammeverk for en verden hvor AI-agenter fungerer som fullstendige digitale identiteter innen bedrifter?

Fem prioriteringer.

Først, få synlighet. De fleste organisasjoner vet ikke hvor mange ikke-menneskelige identiteter de har. Du kan ikke styre hva du ikke kan se.

Andre, behandle hver AI-agent som en bruker. Dedikert identitet, begrensede tillatelser, legitimasjonsrotasjon, tilgangs-gjennomgang. Hvis du ikke ville gi en menneskelig bruker permanent admin-tilgang til alt, gi det ikke til en agent heller.

Tredje, gå fra periodisk til kontinuerlig styring. Kvartalsvis gjennomgang kan ikke holde pace med agenter som endrer atferd på sekunder.

Fjerde, bygg din politikk-ramme nå — før du har hundrevis av agenter. Definer autonomi-grensene, godkjenning-kravene og eierskapet mens det fortsatt er håndterbart.

Femte, samordne styring på tvers av menneskelige og ikke-menneskelige identiteter. Separate systemer skaper hull.

Vinnerne vil ikke være organisasjoner som deployerte mest AI. De vil være de som bygget identitetsstyring kapabel til å operere med maskin-hastighet.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke ConductorOne.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.