Connect with us

Craig Riddell, Global Field CISO at Wallarm – Haastattelusarja

Haastattelut

Craig Riddell, Global Field CISO at Wallarm – Haastattelusarja

mm

Craig Riddell, Global Field CISO at Wallarm, on kokenut kyberTurvallisuuden johtaja, joka keskittyy auttamaan yrityksiä hallitsemaan kasvavaa riskiä, joka liittyy API:hin ja tekoälyjärjestelmiin. Nykyisessä roolissaan hän työskentelee läheisesti CISO:iden, CIO:iden ja insinöörijohtajien kanssa kääntääkseen todelliset hyökkäysmallit ja väärinkäytön tilanteet toimiviksi turvallisuusstrategioiksi, joissa on vahva painopiste havainnollisuudessa – ymmärtäessä, miten API:t ja tekoälyjärjestelmät käyttäytyvät tuotannossa ympäristössä, käyttäjien, sovellusten ja integraatioiden yli. Uransa aikana hän on toiminut johtavissa rooleissa identiteetin ja pääsyoikeuksien hallinnassa, zero trust -arkkitehtuurissa ja yritysten turvallisuudessa organisaatioissa, kuten Netwrix, Kron ja HP, joissa hän johti laajamittaisia IAM-muutoksia ja modernisoi turvallisuuskehyksiä. Riddellin asiantuntemus keskittyy uusiin uhkiin, kuten liiketoimintalogiikan hyökkäyksiin, API-väärinkäyttöön, tekoälyjärjestelmien poikkeamaan ja petoksiin, joissa on jatkuvasti painopistettä siltaa rakentamassa korkean tason turvallisuusstrategian ja operatiivisen toimeenpanon välille.

Wallarm on kyberturvallisuusyhtiö, joka erikoistuu suojaamaan API:ja, sovelluksia ja tekoälyjärjestelmiä modernissa pilviympäristöissä. Sen alusta tarjoaa jatkuvan löytämisen, testaamisen ja reaaliaikaisen suojauksen uhkia vastaan, kuten API-väärinkäyttöä, liiketoimintalogiikan hyökkäyksiä ja automaattisia hyökkäyksiä, samalla tarjoten syvän näkyvyyden siihen, miten järjestelmät käyttäytyvät monimutkaisissa infrastruktuureissa. Monipilvi- ja pilvi-alkuperäisten arkkitehtuureiden suunniteltu, Wallarm integroituu olemassa oleviin DevOps- ja turvallisuusprosesseihin, mahdollistaen organisaatioiden havaita ja estää hyökkäykset niiden tapahtuessa, ei vasta sen jälkeen. Yhdistämällä API-inventoinnin, tekoälyohjatun uhka-ilmoituksen ja automaattisen vastauskyvyn, alusta vastaa kasvavaa todellisuutta, jossa API:t ja tekoälyjärjestelmät ovat muodostuneet modernien digitaalisten liiketoimintojen ensisijaiseksi hyökkäyspinnaksi.

Kerroimme aloittaneesi urasi työskentelemällä suoraan järjestelmien ja infrastruktuurin kanssa ja siirtyneesi sitten johtavaksi rooleihin, jotka keskittyvät identiteetin, pääsyoikeuksien, API:n ja tekoälyturvallisuuden johtamiseen. Mitkä olennaiset muutokset matkallasi johtivat siihen, että todellinen riski on siirtynyt reunalta API:hin ja koneohjattuihin järjestelmiin?

Urani alussa painopiste oli reunojen suojaamisessa. Palomuurit, segmentointi, infrastruktuurin lujittaminen. Tämä malli toimi, kun järjestelmät olivat enemmän staattisia ja luottamukselliset rajat olivat helpommin määritettävissä.

Mitä muuttui, oli se, miten sovellukset rakennettiin ja miten järjestelmät vuorovaikuttavat. API:t tulivat kaiken toiminnan yhdistäväksi kudelmaksi, ja tekoäly kiihdytti tätä edelleen. Nyt järjestelmät tekevät päätöksiä, kutsuvat toisia järjestelmiä ja suorittavat toimia mittakaavassa ja nopeudessa, joka ei vaadi ihmisten osallistumista.

Tässä vaiheessa reuna muuttuu vähemmän merkittäväksi. Todellinen riski siirtyy siihen, missä päätöksiä tehdään ja toimia suoritetaan, eli API:hin ja koneohjattuihin työnkulkuihin.

Jos sinulla ei ole näkyvyyttä ja valvontaa siellä, luotat käyttäytymiseen, jota et voi täysin nähdä. Siinä ilmenee liiketoimintariski, kuten taloudellinen altistus, odottamattomat seuraukset ja toiminnan keskeytykset.

Olet kuvaillut kybersähköisen kättelynnostamisen murtuneeksi, viitaten siihen, miten järjestelmät luovat luottamussuhteita ja vaihtavat toimia yhä monimutkaisempien API- ja automaattisten prosessien ketjuissa. Miltä tämä murtuminen näyttää todellisessa yritysympäristössä tänään?

Useimmissa ympäristöissä järjestelmät luottavat toisiinsa identiteetin ja todennuksen perusteella. Tuntemerkki on voimassa, pyyntö on hyvin muodostettu, ja vuorovaikutus on sallittu.

Ongelma on, että tämä olettaa, että voimassa oleva tarkoittaa turvallista. Tämä ei enää pidä paikkaansa.

Me todennamme identiteetin, mutta emme vahvista aikomusta. Me vahvistamme pääsyoikeuksia, mutta emme käyttäytymistä ketjun yli.

Palvelu saattaa olla valtuutettu kutsumaan toista palvelua, joka laukaisee alasvirtaista toimia useiden API:iden yli. Jokainen askel näyttää lailliseksi eristyneenä, mutta koko ketjussa alkaa ilmetä odottamaton käyttäytyminen tai logiikan väärinkäyttö.

Tekoälyohjatuissa ympäristöissä tämä on voimistunutta. Agentit voivat ketjuttaa toimia ja suorittaa työnkulkuja ilman ihmisten tarkastelua.

Kättelynnostaminen edelleen tapahtuu, mutta kukaan ei kysy, onko käyttäytyminen järkevää asiayhteydessä. Luottamus perustetaan, mutta sitä ei jatkuvasti vahvisteta.

Miksi AI- ja API-riski usein jää organisaatioiden rajojen väliin eikä kuulu selkeästi kenellekään?

Siksi, että järjestelmät eivät vastaa sitä, miten organisaatiot on rakennettu.

DevOps omistaa toimituksen. Turvallisuus omistaa politiikan. Liiketoimintatiimit omistavat tulokset. Datatiimit omistavat mallit. Jokainen ryhmä omistaa osan, mutta kukaan ei omista järjestelmää sellaisenaan tuotannossa.

API:t suorittavat liiketoimintalogiikkaa järjestelmien yli. Tekoäly tuo epädeterministisen päätöksenteon sen lisäksi. Yhdessä ne leikkaavat jokaisen rajan yli.

Ne on rakennettu yhdellä tiimillä, turvattu toisella, ja niitä käytetään kolmannella, epäjohdonmukaisella seurannalla kaikissa niistä.

Tässä luodut aukot eivät ole tiimien epäonnistumisia. Ne ovat toimintamallin epäonnistumisia heijastaa, miten modernit järjestelmät tosiasiassa toimivat.

Missä määrin tiimit yleensä olettavat omistavansa AI-riskiä, ja missä ovat suurimmat sokeat kohdat turvallisuuden, DevOpsin ja liiketoimintayksiköiden välillä?

Turvallisuustiimit usein omistavat AI-riskiä hallinnon ja vaatimustenmukaisuuden näkökulmasta. DevOps omistaa käyttöönoton ja luotettavuuden. Liiketoimintatiimit keskittyvät tuloksiin.

Sokeat kohdat ilmenevät näiden alueiden välillä.

Turvallisuus määrittää, mitä pitäisi tapahtua. DevOps varmistaa, että järjestelmä toimii. Liiketoiminta keskittyy tuloksiin. Mutta harvat tiimit tarkkailevat jatkuvasti, mitä järjestelmä todella tekee reaaliajassa.

Tässä aukossa asuu riski, erityisesti kun käyttäytyminen on teknisesti voimassa, mutta asiayhteydellisesti väärä.

Monet modernit hyökkäykset näyttävät oikeutetuksi ja todennetuksi käyttäytymiseksi eikä ilmeisistä tunkeutumisista. Miten organisaatioiden tulisi uudelleenarvioida havaitsemista tässä uudessa todellisuudessa?

Meidän on siirryttävä “huonon” pyynnön tunnistamisen ulkopuolelle.

Monissa tapauksissa pyyntö on voimassa. Tuntemerkit ovat legitimejä. API-kutsu on odotettu. Mitä ei odoteta, on toimien järjestys, määrä tai tulos.

Havainnointi on muutettava käyttäytymiseksi ja asiayhteydelliseksi. Se on vähemmän yksittäisen pyynnön estämistä ja enemmän ymmärtämistä, miten järjestelmät vuorovaikuttavat ajan myötä.

Lähestymistavat, jotka todella pitävät paikkansa mittakaavassa, siirtyvät mallien vastaamisesta. Ne purkavat pyynnöt rakenteellisesti, käsitellen jokaista vuorovaikutusta käyttäytymisen merkkien joukkona, eikä yritä vastata tunnettuja huonoihin malleihin.

Tämä mahdollistaa ymmärtämään, miten käyttäytyminen kehittyy ja missä se poikkeaa, vaikka kaikki näyttää pinnan alla olevan voimassa.

Jos luotat staattisiin sääntöihin tai allekirjoituksiin, et havaitse suurinta osaa siitä, mikä on merkittävää.

Olet korostanut todellisen maailman käyttäytymisen havainnollisuuden tärkeyttä. Miltä merkittävä havainnollisuus näyttää API:ille ja tekoälyjärjestelmille tuotannossa?

Merkittävä havainnollisuus ei ole vain lokit ja mittarit. Se on ymmärtäminen käyttäytymisestä asiayhteydessä.

API:ille se tarkoittaa täydellistä pyyntö- ja vastausnäkyvyyttä, miten päätepisteitä käytetään ja miten vuorovaikutukset kehittyvät ajan myötä.

Tekoälyjärjestelmille se tarkoittaa syvää ymmärrystä syötteistä, päätöksistä ja tuloksista.

Ennen kaikkea se tarkoittaa näiden yhdistämistä järjestelmien yli koko työnkulkuun, eikä erillisiin tapahtumiin.

Ilman tätä olet toimintakykyisempi oletuksilla järjestelmien käyttäytymisestä, eikä todellisuudella.

Miksi perinteinen ihmisen tarkastus- ja hyväksymismalli muuttuu vähemmän tehokkaaksi koneohjatuissa ympäristöissä?

Siksi, että nopeus ja mittakaava ovat muuttuneet.

Järjestelmät tekevät tuhansia tai miljoonia kutsuja minuutissa, ja hyökkäykset tai odottamattomat käyttäytymiset voivat kehittyä minuuteissa tai sekunneissa. Et voi realistisesti asettaa ihmistä silmänkulmaan jokaiseen päätökseen ilman, että rikkoisit suorituskyvyn.

Tekoälyjärjestelmät eivät myöskään aina ole deterministisiä, mikä tekee ennakko-hyväksymismallit vähemmän tehokkaiksi.

Ihmisen valvonta on edelleen tärkeää, mutta se on siirtymässä yksittäisten toimien hyväksymisestä käyttäytymisen rajojen määrittelyyn ja tulosten seuraamiseen.

Mitkä ovat yleisimmät toiminnalliset aukot, joita näet, kun yritykset yrittävät turvata tekoälyjärjestelmiä perinteisen turvallisuuskehyksen avulla?

Suurin aukko on liiallinen riippuvuus suunnitteluaikaisista ohjaimista.

Organisaatiot keskittyvät turvaamaan malleja, tarkastamaan koodia ja määrittelemään käytäntöjä ennen käyttöönottoa. Tämä on tärkeää, mutta se olettaa, että järjestelmät käyttäytyvät odotetusti, kun ne ovat käyttöön otettu.

Todellisuudessa järjestelmät kehittyvät. API:t muuttuvat. Tekoälymallit vuorovaikuttavat uuden datan ja työnkulkujen kanssa. Käyttäytyminen muuttuu ajan myötä.

Ilman jatkuvaa käyttäytymisen vahvistamista tuotannossa organisaatiot ovat tehokkaasti sokeita sen jälkeen, kun ne on käyttöönotettu.

Miltä käytännöllinen toimintamalli näyttää, kun useat sidosryhmät jakavat vastuun AI- ja API-riskistä?

Se alkaa siitä, että kukaan yksittäinen tiimi ei voi omistaa tätä loppuun asti.

Käytännöllinen malli määrittää jaettua vastuuta, joka on ankkuroitu yhteiseen totuuteen: suoritusaikaisen käyttäytymisen.

Turvallisuus määrittää riskin ja politiikan. Insinöörit rakentavat ja operoivat järjestelmiä. Liiketoiminta määrittää hyväksyttävät tulokset.

Tiimit, jotka pääsevät eteenpäin tässä, toimivat suljetussa silmukassa. Jatkuva löytäminen, pakottaminen ja hienosäätö, johdettu siitä, mitä järjestelmät todella tekevät tuotannossa, eikä siitä, mitä oletettiin suunnitteluaikana.

Kaikkien sidosryhmien on oltava näkyvyyttä siitä, miten järjestelmät toimivat tuotannossa. Siitä tiimit voivat sopia siitä, miltä “hyvä” näyttää, havaita poikkeamat ja reagoida.

Muutos on siirtymässä eristyneestä omistamisesta koordinoituun vastuuseen, joka perustuu suoritusaikaisiin oivalluksiin.

Edetessäsi eteenpäin, odotatko turvallisuusvastuun keskittyvän uudelleen tai jatkuvan hajoamisenä, kun järjestelmät muuttuvat autonomisemmiksi?

Vastuu on edelleen hajautunut, koska se heijastaa, miten järjestelmät on rakennettu.

Mitä muuttuu, on se, miten tämä vastuu koordinoidaan.

Näemme yhdenmukaisempia hallintomalleja, joissa tiimit omistavat omat alueensa, mutta toimivat jaettujen näkymien ja asiayhteyden kanssa.

Onnistuneet organisaatiot eivät ole niitä, jotka yrittävät keskittää kaiken. Ne ovat niitä, jotka ovat sopusoinnussa sidosryhmien kanssa siitä, miten järjestelmät todella käyttäytyvät todellisessa maailmassa.

Siksi, jos kukaan ei ymmärrä suoritusaikaista käyttäytymistä, kukaan ei todella omista riskiä.

Kiitos haastattelusta, lukijat, jotka haluavat oppia lisää, kannattaa vierailla Wallarm:ssa.

Antoine on visionäärinen johtaja ja Unite.AI:n perustajakumppani, jota ohjaa horjumaton intohimo muokata ja edistää tulevaisuuden tekoälyä ja robottiikkaa. Sarjayrittäjänä hän uskoo, että tekoäly tulee olemaan yhtä mullistava yhteiskunnalle kuin sähkö, ja hänestä usein kuuluu ylistyksiä mullistavien teknologioiden ja AGI:n mahdollisuuksista.
Hänen ollessaan futuristi, hän on omistautunut tutkimiseen, miten nämä innovaatiot muokkaavat maailmaamme. Lisäksi hän on Securities.io:n perustaja, joka on alusta, joka keskittyy sijoittamiseen uraauurtaviin teknologioihin, jotka määrittelevät uudelleen tulevaisuuden ja muokkaavat koko sektoreita.