Tankeledere
AI vs AI: Den nye cybersecurity-reality

AI-drevne cyberangrep har ankommet, og bekrefter hva som en gang bare var en teoretisk, men forventet, risiko, og de innleder en ny æra i trusselforlandskapet. Med AI-agenter som nå kan lansere komplekse, end-to-end-kampanjer på minutter, kan cyberkriminelle peke ut og utnytte bedriftssårbarheter med maskinhastighet. Reglene for engasjement har endret seg: gårsdagens cyberforsvar kan ikke lenger holde pace med dagens AI-drevne angrep.
Da AI overdriver cybertruslene, må bedriftene utvikle sine egne AI-drevne defensive evner for å holde pace i hastighet, skala og presisjon. For nå, følger cybermotstanderne fortsatt kjente taktikker, teknikker og prosedyrer (TTPs), men AI akselerer og oppgraderer deres playbook. I tillegg er bedriftens AI-modeller selv et nytt mål via modellforgiftning og språk-drevet sosial ingeniring, og krever at cyberteamene ordentlig sikrer sine AI-evner. Derfor burde sikkerhet være en kjernedel av en organisations større AI-strategi.
Hva skiller AI-drevne cyberangrep?
I en digital verden som allerede er mettet med nesten non-stop cyberintrusjonsforsøk, er barrieren for inngang for en skadelig aktør blitt redusert, og øker ikke bare volumet, men også kompleksiteten av angrep. AI-drevne angrep kan nå utnytte AI eller maskinlæring (ML) for å automatisere, akselerere eller forbedre enhver fase av angrepslivssyklusen, fra rekognosering og informasjonsinnsamling til utnyttelse og eksfiltrering av sensitive data.
Å stole eksklusivt på eksisterende sikkerhetsprosesser og -teknologier uten å utvikle den samme avanserte teknologien som motstanderne utnytter, gir motstanderen en fordel som er nesten umulig å skale uten defensiv AI. Organisasjoner er allerede overveldet av å overvåke sine bedrifter fra tradisjonelle trusler. AI-drevne angrep vil forverre alert-utmattelse. Dette nødvendiggjør en evolusjon fra menneske-styrte prosesser til en hybrid cyber menneske/digital arbeidsstyrke.
Kartlegg hver digital aktivum
I dagens verden er det å forstå potensielle inngangspunkter over hele bedriftsmiljøet en selvfølge, men likevel utenfor rekkevidde for mange store bedrifter. Forbi bare digitale systemer og aktivum er det behov for en omfattende kartlegging av alle identiteter og tilgang innen en organisasjon. Digital identitet, som binder fysiske og atferdsmessige karakteristika tilbake til en enkelt person, er godt forstått med eksisterende kontroller for å håndtere digital tilgang.
Men å forstå bedriftsvid landskap av ikke-menneskelige identiteter (NHIs) er essensielt for å sikre digitale aktivum. Å realisere den potensielle verdien av AI innen en organisasjon betyr å gi AI-agenter tilgang og tillatelse til å fullføre en forretningsprosess autonomt. Liksom sky-miljøer i den forrige sikkerhetsera, spinner dagens agentic-drevne arbeidsflyter NHIs opp og ned i skala, og nødvendiggjør en avansert evne til å håndtere og spore hvor i miljøet de opererer og hvordan de oppnår mål eller roller.
Bedrifter burde utvide identitetsstyring over agent-identitetslivssyklusen og overvåke agent-handlinger, likesom de overvåker menneskelig bruker-tilgang i dag for insider-risikoadferd eller konto-kompromitt fra trusler. Etterhvert som agentic-evner tar på seg mer autonomi og forretnings-kritisk arbeid, er det kritisk å forstå hva deres identitetsavtrykk og tilgangsmønster ligner for å implementere tilgangs- og overvåkingskontroller for å beskytte dem og bedriften mot misbruk.
Lås ned AI-modeller
AI-evner har løftet om å låse opp effektivitet og produktivitet, men også potensialet for å bli snudd mot organisasjoner. Å introdusere AI i hver enkelt del av forretningsoperasjoner er ikke lenger et “hyggelig å ha” – det er et krav for suksess i dagens konkurranse-landskap. Derfor er det å sikre AI en nødvendig komponent for å trygt realisere fullt forretningspotensiale og resultater.
Skiftet til AI-empoweret cyberforsvar pågår, mens AI-modellene selv har blitt mål. Motstandere kan forsøke å forgifte dataene som mates inn i disse modellene og manipulere dem til å utføre uventede handlinger eller til og med å avsløre sensitive opplysninger.
Adversarielle angrep mot AI kan komme i forskjellige former, som forgiftningangrep, prompt-injeksjonsangrep og andre. For å beskytte AI mot potensiell manipulering, burde organisasjoner utnytte Cyber Infrastructure and Security Agency (CISA) filosofien om Secure by Design. Dette starter med dataene som mates inn i modellens trening. Å låse ned inndata tidlig i utviklingsprosessen legger grunnlaget for pålitelige utdata i distribusjon.
Å forstå inndataene som går inn i å utvikle modellene og evnene er mulig gjennom bevisst datastyring sammen med kontroll over tilgangen til modellene selv. Kritiske kontroller som tillater validering av ønskede utdata kommer i form av data-tap-prevent (DLP); policy- og sikkerhetsstyring; grunnleggelse via verifiserbare kilder; og strenge godkjenningkontroller for høy-impakt-handlinger, overvåkbarhet og kontinuerlig testing, inkludert penetreringstesting av modeller for å battle-harde dem.
Integrer AI i sikkerhetsoperasjoner
Inntil nå har å anvende AI på cyberforsvar vært taktisk, med mange organisasjoner som festet AI på legacy, menneske-sentriske prosesser, i stedet for å strategisk omtenke hvordan å bygge AI-sentriske prosesser. Dette er som å prøve å sette en V8-motor på en sykkel. Den neste evolusjonen av AI-aktivering vil være å designe prosesser fra bunnen av, med agentic AI og automatisering innført i designet. Prøvede og sanne sikkerhetsoperasjonsmetoder og -prosesser, som trusseldeteksjon, trusseljakt og deteksjonsteknikk, er fortsatt kritiske elementer som er avgjørende for organisatorisk sikkerhet i AI-æraen. Å transformere nåværende sikkerhetsprosesser for å aktivere AI-forsterkning kan legge en sterk grunnlag for fremtidens AI-empoweret sikkerhetsoperasjonssenter (SOC).
I tillegg er automatisering ikke et nytt konsept unikt for AI; sikkerhetsarbeidsflyter og -prosesser har vært automatisert i årevis, med modne organisasjoner som har svært sofistikerte orkestrerings- og automatiseringskapasiteter. Men AI forbedrer eksisterende regelbasert automatisering og utvikler den videre, og tillater dynamiske, tilpasningsdyktige, kontekst-rike automatiserte arbeidsflyter som kan hjelpe med å håndtere hastigheten og smidigheten som kreves for disse nye AI-risikoene.
Hva kommer neste?
Sikkerhet må fortsatt være øverst på agendaen for bedrift og IT for å holde sine kritiske aktivum og brukere trygge fra skadelig utnyttelse. Sikker AI er en nødvendighet gitt hastigheten som AI-modeller kan deployeres og bedt om å utføre mer kritiske aktiviteter. Cyberteamene burde tenke strategisk om å transformere prosesser fra bunnen av for å ordentlig implementere nye AI-evner for å holde pace i cyber-katt-og-mus-spillet.
Sikkerhetsledere kan ta flere konkrete skritt i nær fremtid: gjennomføre en omfattende gjennomgang av nåværende sikkerhetsprosesser for å peke ut hull, moderniseringsmuligheter og områder som er modne for transformasjon. Holde øye på AI-emergente trusler, trender og teknologier. Over alt, forbli forankret til den grunnleggende sikkerhetsprinsippet om forsvar i dybden som har vist seg over tid – lagd beskyttelse og validering fra identitet, til endpoint, til nettverk, til data, med robust overvåking og responskapasiteter som alltid testes.
Transformasjons-potensialet av AI lover for stor en upside til å forkaste dets adopsjon, og genen er ute av flasken for trusler. Derfor er rollen til sikkerhetsledere i denne neste æraen den samme som den alltid har vært: å støtte organisasjonene i å oppnå sine forretningsmål med omtenksom risikomildring – bare nå med maskinhastighet med bruk av AI.













