Connect with us

Cybersikkerhet

Kamp mot AI med AI i det moderne trusselfenomenet

mm

Det er ikke akkurat nyheter å si at AI har dramatisk endret cybersikkerhetsbransjen. Både angripere og forsvarere bruker kunstig intelligens for å forbedre sine evner, hver stræber etter å holde ett skritt foran den andre. Dette katte-og-mus-spillet er ingenting nytt—angripere har forsøkt å overliste sikkerhetsteam i årevis, etter all—men fremveksten av kunstig intelligens har introdusert et nytt (og ofte uforutsigbart) element i dynamikken. Angripere over hele verden gnir hendene sammen av glede over prospektet om å utnytte denne nye teknologien til å utvikle innovative, aldri sett før angrepsmetoder.

At least, det er oppfatningen. Men virkeligheten er en litt annen. Mens det er sant at angripere i økende grad bruker AI, bruker de det mest for å øke skalaen og kompleksiteten av angrepene sine, finpussere sin tilnærming til eksisterende taktikker heller enn å bryte ny grund. Tenkningen her er klar: hvorfor bruke tid og anstrengelse på å utvikle angrepsmetodene for i morgen når forsvarerne allerede sliter med å stoppe dagens? Heldigvis bruker moderne sikkerhetsteam AI-egenskaper av sine egne—mange av disse hjelper til å oppdage malware, phishing-forsøk og andre vanlige angrepsmetoder med større hastighet og nøyaktighet. Ettersom “AI-våpenkappløpet” mellom angripere og forsvarere fortsetter, vil det bli stadig viktigere for sikkerhetsteam å forstå hvordan motstanderne faktisk deployerer teknologien—and sikre at deres egne innsats er fokusert på riktig sted.

Hvordan angripere utnytter AI

Tanken på en semi-autonom AI som deployeres for å systematisk hakke seg gjennom en organisasjons forsvar er en skremmende en, men (for nå) forblir den fast i William Gibson-romaner og annen science fiction-litteratur. Det er sant at AI har utviklet seg i en fantastisk rate over de siste årene, men vi er fortsatt langt ifra den slags kunstig generell intelligens (AGI) som kan perfekt etterligne menneskelige tenkemønster og atferd. Dette betyr ikke at dagens AI ikke er imponerende—det er det absolutt. Men generative AI-verktøy og store språkmodeller (LLM) er mest effektive til å syntetisere informasjon fra eksisterende materiale og generere små, iterative endringer. De kan ikke skape noe helt nytt på egen hånd—but ingen feil, evnen til å syntetisere og iterere er usedvanlig nyttig.

I praksis betyr dette at i stedet for å utvikle nye angrepsmetoder, kan motstanderne heller oppgradere sine eksisterende. Ved å bruke AI, kan en angriper kanskje sende millioner av phishing-e-poster, i stedet for tusener. De kan også bruke en LLM til å lage en mer overbevisende melding, lure flere mottakere til å klikke på en skadelig lenke eller laste ned en malware-infisert fil. Taktikker som phishing er effektivt et tallspill: de fleste mennesker vil ikke falle for en phishing-e-post, men hvis millioner av mennesker mottar den, kan selv en 1% suksessrate resultere i tusener av nye ofre. Hvis LLM-er kan øke denne 1% suksessraten til 2% eller mer, kan skurkene effektivt doble effektiviteten av angrepene sine med liten eller ingen innsats. Det samme gjelder for malware: hvis små justeringer av malware-kode kan effektivt kamuflere det fra oppdaging-verktøy, kan angripere få langt mer ut av et enkelt malware-program før de må gå videre til noe nytt.

Det andre elementet som er i spill her er hastighet. Fordi AI-baserte angrep ikke er underlagt menneskelige begrensninger, kan de ofte utføre en hel angrepssekvens i en mye raskere rate enn en menneskelig operatør. Dette betyr at en angriper potensielt kan bryte inn i et nettverk og nå offerets kronjuveler—their mest sensitive eller verdifulle data—før sikkerhetsteamet får en advarsel, la alene responderer på den. Hvis angripere kan flytte raskere, trenger de ikke å være like forsiktige—hvilket betyr at de kan komme unna med støyere og mer disruptive aktiviteter uten å bli stoppet. De gjør ikke nødvendigvis noe nytt her, men ved å skyte fremover med angrepene sine raskere, kan de overgå nettverksforsvaret på en potensielt spillendrende måte.

Dette er nøkkel til å forstå hvordan angripere utnytter AI. Sosiale ingeniørskap og malware-programmer er allerede suksessfulle angrepsvektorer—but nå kan motstanderne gjøre dem enda mer effektive, deployere dem raskere og operere på en enda større skala. I stedet for å kjempe mot dusinvis av forsøk per dag, kan organisasjoner kjempe mot hundrevis, tusener eller til og med titusener av raskt angrep. Og hvis de ikke har løsninger eller prosesser på plass for å raskt oppdage disse angrepene, identifisere hvilke som representerer reelle, tangibile trusler, og effektivt avhjelpe dem, er de åpne for angripere. I stedet for å undre seg over hvordan angripere kan utnytte AI i fremtiden, burde organisasjoner utnytte AI-løsninger av sine egne med målet om å håndtere eksisterende angrepsmetoder på en større skala.

Å vende AI til sikkerhetsteams fordel

Sikkerhetsekspertene på alle nivåer i både bedrifter og regjeringer søker etter måter å utnytte AI for defensive formål. I august kunngjorde det amerikanske forsvars avanserte forskningsprosjektbyrå (DARPA) finalistene for sin nylige AI-cyber-utfordring (AIxCC), som deler ut priser til sikkerhetsforskningsgrupper som arbeider for å trene LLM-er til å identifisere og fikse kode-baserte sårbarheter. Utfordringen støttes av store AI-leverandører, inkludert Google, Microsoft og OpenAI, alle som gir teknisk og finansiell støtte til disse innsatsene for å styrke AI-basert sikkerhet. Selvfølgelig er DARPA bare ett eksempel—du kan knapt røre en stikk i Silicon Valley uten å treffe på en dusin startup-grunnleggere som er ivrige etter å fortelle deg om sine avanserte nye AI-baserte sikkerhetsløsninger. La det være sagt, å finne nye måter å utnytte AI for defensive formål er en høy prioritet for organisasjoner av alle typer og størrelser.

Men som angripere, finner sikkerhetsteam ofte mest suksess når de bruker AI for å forbedre sine eksisterende evner. Med angrep som skjer i en stadig økende skala, er sikkerhetsteam ofte strekt til det ytterste—både i tid og ressurser—og det er vanskelig å adekvat identifisere, etterforske og avhjelpe hver sikkerhetsadvarsel som dukker opp. Det finnes bare ikke tid. AI-løsninger spiller en viktig rolle i å lette denne utfordringen ved å tilby automatiserte oppdaging- og respons-egenskaper. Hvis det er en ting AI er god på, er det å identifisere mønster—and det betyr at AI-verktøy er svært gode til å gjenkjenne abnormal atferd, spesielt hvis den atferden konformerer seg til kjente angrepsmønster. Fordi AI kan gjennomgå enorme mengder data mye raskere enn mennesker, tillater dette sikkerhetsteam å skalerer opp operasjonene sine på en betydelig måte. I mange tilfeller kan disse løsningene sogar automatisere grunnleggende avhjelpingsprosesser, motvirke lav-nivå angrep uten behov for menneskelig inngripen. De kan også brukes til å automatisere prosessen med sikkerhetsvalidering, kontinuerlig å prikke og å teste rundt nettverksforsvaret for å sikre at det fungerer som det skal.

Det er også viktig å merke seg at AI ikke bare lar sikkerhetsteam identifisere potensiell angrepsaktivitet raskere—det forbedrer også dramatisk deres nøyaktighet. I stedet for å jage falske alarmer, kan sikkerhetsteam være trygge på at når en AI-løsning advarer dem om en potensiell angrep, er det verdig deres umiddelbare oppmerksomhet. Dette er et element av AI som ikke diskuteres nok—mens mye av diskusjonen handler om AI “erstatter” mennesker og tar deres jobber, er virkeligheten at AI-løsninger muliggjør mennesker å gjøre jobbene sine bedre og mer effektivt, samtidig som de lettet utbrenthet som følger med å utføre kjedelige og repetitive oppgaver. Langt ifra å ha en negativ innvirkning på menneskelige operatører, håndterer AI-løsninger mye av den “busywork” som er forbundet med sikkerhetsstillinger, og lar mennesker fokusere på mer interessante og viktige oppgaver. På et tidspunkt når utbrenthet er på et rekordhøyt nivå og mange bedrifter sliter med å tiltrekke seg ny sikkerhetstalent, kan forbedring av kvalitet på arbeidslivet og jobbtillfredshet ha en massiv positiv innvirkning.

Dette er den virkelige fordelen for sikkerhetsteam. Ikke bare kan AI-løsninger hjelpe dem å skalerer opp operasjonene sine for å effektivt bekjempe angripere som utnytter AI-verktøy av sine egne—but de kan også holde sikkerhetsproffene lykkeligere og mer tilfreds i rollene sine. Dette er en sjelden gevinst-løsning for alle involverte, og det burde hjelpe dagens bedrifter å erkjenne at tiden til å investere i AI-baserte sikkerhetsløsninger er nå.

AI-våpenkappløpet er bare i gang

Kappløpet om å adoptere AI-løsninger er i gang, med både angripere og forsvarere som finner forskjellige måter å utnytte teknologien på fordel. Mens angripere bruker AI for å øke hastigheten, skalaen og kompleksiteten av angrepene sine, vil sikkerhetsteam måtte slå tilbake med AI-verktøy av sine egne for å forbedre hastigheten og nøyaktigheten av deres oppdaging- og avhjelpings-egenskaper. Heldigvis tilbyr AI-løsninger kritisk informasjon til sikkerhetsteam, lar dem bedre teste og evaluere effikasiteten av sine egne løsninger samtidig som de frigjør tid og ressurser for mer kritiske oppgaver. Ingen feil, AI-våpenkappløpet er bare i gang—but det faktum at sikkerhetsproffene allerede bruker AI for å holde ett skritt foran angriperne er et svært godt tegn.

Nir Loya-Dahan er VP Product for Cymulate. Nir er en startup-veteran med ett tiår med erfaring innen cybersikkerhet, inkludert 7 år i Israelske militære etterretningstjenester. Han har en BA i økonomi fra Reichmnn University og har etablert et program for å trene studenter til å bli junior produktledere.