Cybersikkerhet
De 3 søylene for AI i cybersikkerhet
Kunstig intelligens (AI) har tatt cybersikkerhetsbransjen med storm, med leverandører av alle slag som arbeider for å integrere AI i sine løsninger. Men forholdet mellom AI og sikkerhet handler om mer enn å implementere AI-kapasiteter – det handler om hvordan både angripere og forsvarere utnytter teknologien til å endre ansiktet på det moderne trusselbildet. Det handler også om hvordan disse AI-modellene utvikles, oppdateres og beskyttes. I dag er det tre primære søyler for AI i cybersikkerhet – og et økende antall organisasjoner vender seg til sikkerhetsleverandører med AI-baserte løsninger, det blir stadig viktigere å forstå hvordan teknologien faktisk brukes.
Søyle #1: Forsvar av AI-kapasiteter
Ettersom adopsjonen av AI-baserte løsninger fortsetter å stige, anerkjenner bedriftene stadig mer at beskyttelse av disse løsningene må være en prioritet. AI-løsninger er trent på massive mengder data (jo mer data, jo mer nøyaktig løsningen), som betyr at en angriper som klarer å bryte inn i en av disse løsningene kan sitte på en skattkiste av kundedata, immaterielle rettigheter, finansiell informasjon og andre verdifulle aktiva. Med angripere som utnytter disse angrepsvektorene i en økende rate, er den første forsvarslinjen for organisasjonene deres evne til å forsvare AI-modellene de bruker på en dag-til-dag-basis.
Fortuignet er dette problemet ikke en hemmelighet – faktisk vokser markedet for løsninger som er spesifikt designet for å beskytte AI-modeller raskt, med et betydelig antall nye selskaper som har oppstått de siste ett eller to årene. Det er også viktig å huske at mens løsninger som generativ AI er relativt nye, har AI vært rundt i ganske lenge – og de fleste AI-løsninger har en viss grad av sikkerhet bygget inn i dem. Det sagt, organisasjonene bør alltid ta alle nødvendige ekstra skritt for å beskytte seg selv og sine data, og det er ingen mangel på tredjeparts løsninger som kan hjelpe med å forsvare AI-pipelines mot angripere som ser etter en enkel seier.
Søyle #2: Stopp angriperne som bruker AI
Med AI som blir stadig mer tilgjengelig, bør det ikke være noen overraskelse at angripere utnytter teknologien for sine egne formål. Like som AI tillater organisasjonene å strømlinjeforme sine operasjoner og automatisere kjedelige og repetitive prosesser, hjelper det også angriperne med å øke skalaen og kompleksiteten av sine angrep. I praksis bruker angriperne ikke AI til å utføre “nye” typer angrep – i hvert fall ikke ennå. Men teknologien gjør det lettere å engasjere i eksisterende angrepsmetoder i en ekstremt høy volum.
For eksempel er phishing-svindel et tallspill – hvis bare 1% av mottakerne klikker på en skadelig lenke, er det en seier for angriperen. Men med hjelp av AI, kan angriperne bruke en utenforliggende personlig tilpasning til sine phishing-e-poster, noe som gjør dem mer overbevisende – og farligere – enn noensinne. Verre enn det, en gang en organisasjon har blitt kompromittert (via phishing eller andre midler), kan angriperen utnytte AI til å analysere oppdagelsesdata og skape en beslutningsprosess som gjør propagering både enklere og mer skjult. Jo mer angriperne kan automatisere propagering, jo raskere kan de nå sitt mål – ofte før tradisjonelle sikkerhetstverktøy kan engasjere angrepet, la alene respondere effektivt på det.
Det betyr at organisasjonene må være klare – og det starter med å ha løsninger på plass som kan identifisere og forsvare mot disse høye-volum, høye-kompleksitets angrepene. Mens mange bedrifter kanskje har løsninger på plass for å forsvare mot phishing-svindel, malware-angrep og andre vektorer, er det viktig å teste disse løsningene for å sikre at de fortsatt er effektive når angrepene blir mer hyppige og komplekse. Sikkerhetsledere må huske at det ikke bare handler om å ha riktige løsninger på plass – det handler om å sikre at de fungerer som forventet mot virkelige trusler.
Søyle #3: Bruk av AI i cybersikkerhetsprodukter
Den siste søylen er den som sikkerhetsfagfolk vil være mest kjent med: cybersikkerhetsleverandører som bruker AI i sine produkter. En av tingene AI er best på er å identifisere mønster, noe som gjør det ideelt for å identifisere mistenkelige eller unormale aktiviteter. En økende antall leverandører deployerer AI i sine detekteringsløsninger, og mange utnytter også AI til å automatisere visse elementer av remediering. I fortiden har håndtering av lav-nivå-trusler vært en kjedelig, men nødvendig del av cybersikkerhet. I dag kan AI automatisere mye av denne prosessen, håndtere mindre hendelser automatisk og la sikkerhetsfagfolk fokusere på bare de truslene som krever direkte oppmerksomhet.
Dette har lagt til betydelig verdi til en rekke sikkerhetsløsninger, men det skjer ikke i et vakuum. AI-modeller må vedlikeholdes, og det er viktig å samarbeide med leverandører som har et rykte for å holde sine modeller konsistent oppdatert. Valg av potensielle sikkerhetspartnere er kritisk, og organisasjonene må vite hvordan leverandører arbeider med AI: hvor deres data kommer fra, hvordan de unngår problemer som innebygget bias og andre faktorer kan (og bør) påvirke avgjørelsen om å samarbeide med en bestemt leverandør. Mens AI-løsninger vinner frem i nesten hver industri, er de ikke alle like. Organisasjoner må sikre at de samarbeider med sikkerhetspartnere som forstår inn- og utsiden av teknologien, i stedet for leverandører som ser “AI” som bare en markedsføringsbuzzord.
Tilnærme AI med tillit
Ettersom AI blir stadig mer ubikkvitert over hele cybersikkerhetslandskapet, er det viktig for organisasjonene å gjøre seg kjent med måtene teknologien faktisk brukes på. Det betyr å forstå både måtene AI kan forbedre sikkerhetsløsninger og måtene AI kan hjelpe angripere med å lage mer avanserte angrep. Det betyr også å anerkjenne at dataene som i dag bygger AI-modellene må beskyttes – og samarbeide med leverandører som prioriterer å deployere teknologien trygt og sikkert er kritisk. Ved å forstå de tre hovedsøylene for AI og sikkerhet, kan organisasjonene sikre at de har den grunnleggende kunnskapen som trengs for å tilnærme teknologien med tillit.












