Følg os

Tanke ledere

Cybersikkerhedens fremtid: AI, automatisering og den menneskelige faktor

I det seneste årti, sammen med den eksplosive vækst inden for informationsteknologi, har mørk realitet af cybersikkerhedstrusler har også udviklet sig dramatisk. Cyberangreb, der engang primært blev drevet af drilske hackere, der søger berømmelse eller økonomisk vinding, er blevet langt mere sofistikerede og målrettede. Fra statssponsoreret spionage til virksomheds- og identitetstyveri er motiverne bag cyberkriminalitet i stigende grad skumle og farlige. Selvom pengegevinst forbliver en vigtig årsag til cyberkriminalitet, er den blevet overskygget af mere uhyggelige mål om at stjæle kritiske data og aktiver. Cyberangribere udnytter i vid udstrækning banebrydende teknologier, herunder kunstig intelligens, til at infiltrere systemer og udføre ondsindede aktiviteter. I USA er Federal Bureau of Investigation (FBI) rapporteret mere end 800,000 cyberkriminalitetsrelaterede klager indgivet i 2022, med samlede tab på over 10 milliarder dollars, hvilket knuste 2021's samlede 6.9 ​​milliarder dollar, ifølge bureauets Internet Crime Complaint Center.

Med trusselslandskabet, der udvikler sig hurtigt, er det tid for organisationer at vedtage en flerstrenget tilgang til cybersikkerhed. Fremgangsmåden bør være at adressere, hvordan angribere får adgang; forhindre indledende kompromis; hurtigt opdage indtrængen; og muliggør hurtig reaktion og afhjælpning. Beskyttelse af digitale aktiver kræver at udnytte AI og automatiserings kraft, samtidig med at det sikres, at dygtige menneskelige analytikere forbliver integrerede i sikkerhedspositionen.

Beskyttelse af en organisation kræver en flerlagsstrategi, der tager højde for de forskellige indgangspunkter og angrebsvektorer, der anvendes af modstandere. Overordnet set er disse under fire hovedkategorier: 1) Web- og netværksangreb; 2) Brugeradfærd og identitetsbaserede angreb; 3) Enhedsangreb rettet mod sky- og hybridmiljøer; og 4) Malware, herunder ransomware, avancerede vedvarende trusler og anden ondsindet kode.

Udnyttelse af AI og automatisering

Implementering af AI og maskinlæringsmodeller (ML) skræddersyet til hver af disse angrebsklasser er afgørende for proaktiv trusselsdetektion og forebyggelse. For web- og netværksangreb skal modeller identificere trusler såsom phishing, browserudnyttelse og Distributed Denial-of-Service (DDoS)-angreb i realtid. Bruger- og enhedsadfærdsanalyse, der udnytter AI, kan spotte unormale aktiviteter, der indikerer kontokompromittering eller misbrug af systemressourcer og data. Endelig kan AI-drevet malwareanalyse hurtigt triage nye stammer, lokalisere ondsindet adfærd og afbøde virkningen af ​​filbaserede trusler. Ved at implementere AI- og ML-modeller på tværs af dette spektrum af angrebsoverflader kan organisationer forbedre deres evne til selvstændigt at identificere angreb på de tidligste stadier, før de eskalerer til fuldstændige hændelser.

Når AI/ML-modeller har identificeret potentiel trusselaktivitet på tværs af forskellige angrebsvektorer, står organisationer over for en anden vigtig udfordring – at give mening i de hyppige alarmer og adskille kritiske hændelser fra støjen. Med så mange genererede datapunkter og detektioner bliver det afgørende at anvende endnu et lag af AI/ML til at korrelere og prioritere de mest seriøse advarsler, der berettiger yderligere undersøgelse og respons. Alarmtræthed er et stadig mere kritisk problem, som skal løses.

AI kan spille en central rolle i denne advarselstriage-proces ved at indtage og analysere store mængder sikkerhedstelemetri, fusionere indsigt fra flere detektionskilder, herunder trusselsintelligens, og kun vise hændelser med højeste troværdighed til respons. Dette reducerer byrden på menneskelige analytikere, som ellers ville blive oversvømmet med udbredte falske positiver og low-fidelity-advarsler, der mangler tilstrækkelig kontekst til at bestemme alvoren og de næste skridt.

Selvom trusselsaktører aktivt har implementeret AI til at drive angreb som DDoS, målrettet phishing og ransomware, har den defensive side haltet i AI-adoptionen. Dette ændrer sig dog hurtigt, efterhånden som sikkerhedsleverandører kapløb om at udvikle avancerede AI/ML-modeller, der er i stand til at opdage og blokere disse AI-drevne trusler.

Fremtiden for defensiv AI ligger i at implementere specialiserede små sprogmodeller, der er skræddersyet til specifikke angrebstyper og anvendelsestilfælde i stedet for at stole på store, generative AI-modeller alene. Store sprogmodeller viser derimod mere lovende for cybersikkerhedsoperationer, såsom automatisering af helpdesk-funktioner, hentning af standarddriftsprocedurer og assistance til menneskelige analytikere. Det tunge løft af præcis trusselsdetektion og forebyggelse vil bedst kunne håndteres af de højt specialiserede små AI/ML-modeller.

Rollen af ​​menneskelig ekspertise

Det er afgørende at bruge AI/ML sammen med procesautomatisering for at muliggøre hurtig afhjælpning og indeslutning af verificerede trusler. På dette stadie, forsynet med hændelser med høj tillid, kan AI-systemer starte automatiserede playbook-svar, der er skræddersyet til hver specifik angrebstype – blokering af ondsindede IP'er [internetprotokol], isolering af kompromitterede værter, håndhævelse af adaptive politikker og mere. Men menneskelig ekspertise forbliver integreret, validerer AI-output, anvender kritisk tænkning og overvåger de autonome reaktionshandlinger for at sikre beskyttelse uden forretningsafbrydelser.

Nuanceret forståelse er, hvad mennesker bringer til bordet. Desuden kræver det at analysere nye og komplekse malwaretrusler kreativitet og problemløsningsevner, som kan være uden for maskinernes rækkevidde.

Menneskelig ekspertise er afgørende på flere nøgleområder:

  • Validering og kontekstualisering: AI-systemer kan på trods af deres sofistikerede undertiden generere falske positiver eller fejlfortolke data. Menneskelige analytikere er nødvendige for at validere AI-output og give den nødvendige kontekst, som AI kan overse. Dette sikrer, at svarene er passende og proportionale med den faktiske trussel.
  • Kompleks trusselsundersøgelse: Nogle trusler er for komplekse til, at AI kan håndtere alene. Menneskelige eksperter kan dykke dybere ned i disse hændelser ved at bruge deres erfaring og intuition til at afdække skjulte aspekter af truslen, som AI kan gå glip af. Denne menneskelige indsigt er afgørende for at forstå det fulde omfang af sofistikerede angreb og udtænke effektive modforanstaltninger.
  • Strategisk beslutningstagning: Mens AI kan håndtere rutineopgaver og databehandling, kræver strategiske beslutninger om overordnet sikkerhedsposition og langsigtede forsvarsstrategier menneskelig dømmekraft. Eksperter kan fortolke AI-genereret indsigt for at træffe informerede beslutninger om ressourceallokering, politiske ændringer og strategiske initiativer.
  • Kontinuerlig forbedring: Menneskelige analytikere bidrager til den løbende forbedring af AI-systemer ved at give feedback og træningsdata. Deres indsigt hjælper med at forfine AI-algoritmer, hvilket gør dem mere nøjagtige og effektive over tid. Dette symbiotiske forhold mellem menneskelig ekspertise og kunstig intelligens sikrer, at begge udvikler sig sammen for at imødegå nye trusler.

Optimeret menneske-maskine-teaming

Baggrunden for denne overgang er behovet for AI-systemer, der kan lære af historiske data (overvåget læring) og løbende tilpasse sig til at opdage nye angreb gennem uovervågede/forstærkende læringstilgange. Kombinationen af ​​disse metoder vil være nøglen til at være på forkant med angribernes udviklende AI-evner.

Alt i alt vil AI være afgørende for, at forsvarere kan skalere deres detektions- og reaktionsevner. Menneskelig ekspertise skal forblive tæt integreret for at undersøge komplekse trusler, revidere AI-systemoutput og vejlede strategiske defensive strategier. En optimeret menneske-maskine teaming-model er ideel til fremtiden.

Efterhånden som massive mængder af sikkerhedsdata akkumuleres over tid, kan organisationer anvende AI-analyser på denne skare af telemetri for at opnå indsigt i proaktiv trusselsjagt og hærdning af forsvar. Løbende læring fra tidligere hændelser muliggør forudsigelig modellering af nye angrebsmønstre. Efterhånden som AI-kapaciteterne udvikler sig, vil rollen som små og specialiserede sprogmodeller, der er skræddersyet til specifikke sikkerhedstilfælde, vokse. Disse modeller kan hjælpe yderligere med at reducere 'alarmtræthed' ved præcist at triage de mest essentielle advarsler til menneskelig analyse. Autonom respons, drevet af AI, kan også udvides til at håndtere flere Tier 1-sikkerhedsopgaver.

Imidlertid vil menneskelig dømmekraft og kritisk tænkning forblive uundværlig, især i tilfælde af alvorlige hændelser. Fremtiden er utvivlsomt en af ​​optimeret menneske-maskine-teaming, hvor AI håndterer omfangsrig databehandling og rutineopgaver, hvilket gør det muligt for menneskelige eksperter at fokusere på at undersøge komplekse trusler og en sikkerhedsstrategi på højt niveau.

Anand Naik, medstifter og administrerende direktør, Sequretek, har arbejdet i erhvervslivet i over 25 år med virksomheder som Symantec, hvor han var MD for Sydasien, og tidligere med IBM og Sun Microsystems i teknologiroller.

Anand er ekspert i cybersikkerhed. Han har arbejdet med adskillige globale giganter for at hjælpe dem med at definere deres it-sikkerhedsstrategi, arkitektur og udførelsesmodeller. Han er blandt de bedste tankeledere inden for cybersikkerhed og har deltaget i forskellige politiske programmer med Indiens regering og andre industriorganer. Han er ansvarlig for produktvision og drift hos Sequretek.