Povežite se s nama

Vođe misli

Budućnost kibernetičke sigurnosti: AI, automatizacija i ljudski faktor

mm

U proteklom desetljeću, zajedno s eksplozivnim rastom informacijske tehnologije, mračna stvarnost kibernetičkih prijetnji također dramatično evoluirala. Kibernetički napadi, koje su nekad vodili prvenstveno nestašni hakeri koji su željeli postati ozloglašeni ili financijski dobiti, postali su daleko sofisticiraniji i ciljaniji. Od državno sponzorirane špijunaže do korporativne krađe i krađe identiteta, motivi koji stoje iza kibernetičkog kriminala sve su zlokobniji i opasniji. Iako je novčani dobitak i dalje važan razlog za kibernetički kriminal, zasjenili su ga podliji ciljevi krađe kritičnih podataka i imovine. Cybernapadači uvelike koriste vrhunske tehnologije, uključujući umjetnu inteligenciju, kako bi se infiltrirali u sustave i izveli zlonamjerne aktivnosti. U SAD-u, Federalni istražni ured (FBI) izvijestio je o više od 800,000 pritužbi povezanih s kibernetičkim kriminalom podnesenih 2022. godine, s ukupnim gubicima većim od 10 milijardi dolara, što je premašilo ukupan iznos od 2021 milijardi dolara 6.9. godine, prema Centru za pritužbe na internetski kriminal ureda.

S prijetnjama koje se brzo razvijaju, vrijeme je da organizacije usvoje višestruki pristup kibernetičkoj sigurnosti. Pristup bi trebao biti rješavanje načina na koji napadači ulaze; spriječiti početni kompromis; brzo otkriti upade; te omogućiti brzu reakciju i sanaciju. Zaštita digitalne imovine zahtijeva iskorištavanje snage umjetne inteligencije i automatizacije uz osiguravanje da vješti ljudski analitičari ostanu sastavni dio sigurnosnog položaja.

Zaštita organizacije zahtijeva višeslojnu strategiju koja uzima u obzir različite ulazne točke i vektore napada koje koriste protivnici. Općenito, to su četiri glavne kategorije: 1) web i mrežni napadi; 2) Ponašanje korisnika i napadi temeljeni na identitetu; 3) Napadi entiteta usmjereni na oblak i hibridna okruženja; i 4) Zlonamjerni softver, uključujući ransomware, napredne trajne prijetnje i drugi zlonamjerni kod.

Iskorištavanje AI i automatizacije

Implementacija AI i modela strojnog učenja (ML) prilagođenih svakoj od ovih klasa napada ključna je za proaktivno otkrivanje prijetnji i prevenciju. Za web i mrežne napade, modeli moraju identificirati prijetnje kao što su krađa identiteta, iskorištavanje preglednika i napadi distribuiranog uskraćivanja usluge (DDoS) u stvarnom vremenu. Analitika ponašanja korisnika i entiteta koja koristi umjetnu inteligenciju može uočiti nenormalne aktivnosti koje ukazuju na kompromitaciju računa ili zlouporabu resursa i podataka sustava. Naposljetku, analiza zlonamjernog softvera vođena umjetnom inteligencijom može brzo sortirati nove sojeve, odrediti zlonamjerno ponašanje i ublažiti utjecaj prijetnji temeljenih na datotekama. Implementacijom AI i ML modela u ovom spektru napadačkih površina, organizacije mogu značajno poboljšati svoju sposobnost autonomnog prepoznavanja napada u najranijim fazama prije nego što prerastu u potpune incidente.

Nakon što AI/ML modeli identificiraju potencijalnu aktivnost prijetnje u različitim vektorima napada, organizacije se suočavaju s još jednim ključnim izazovom—davanjem smisla čestim upozorenjima i odvajanjem kritičnih incidenata od buke. S toliko mnogo podatkovnih točaka i generiranih detekcija, primjena drugog sloja AI/ML-a za korelaciju i određivanje prioriteta najozbiljnijih upozorenja koja zahtijevaju daljnju istragu i odgovor postaje ključna. Umor od uzbune sve je kritičniji problem koji treba riješiti.

AI može odigrati ključnu ulogu u ovom procesu trijaže upozorenja uzimajući i analizirajući velike količine sigurnosne telemetrije, spajajući uvide iz višestrukih izvora otkrivanja uključujući obavještajne podatke o prijetnjama, i otkrivajući samo incidente najveće vjernosti za odgovor. To smanjuje teret za ljudske analitičare, koji bi inače bili preplavljeni široko rasprostranjenim lažno pozitivnim upozorenjima i upozorenjima niske vjernosti bez odgovarajućeg konteksta za određivanje ozbiljnosti i sljedećih koraka.

Iako akteri prijetnji aktivno koriste AI za osnaživanje napada poput DDoS-a, ciljanog krađe identiteta i ransomwarea, obrambena strana zaostaje u usvajanju AI-ja. Međutim, to se ubrzano mijenja kako se proizvođači sigurnosti utrkuju u razvoju naprednih AI/ML modela sposobnih za otkrivanje i blokiranje ovih prijetnji koje pokreće AI.

Budućnost za obrambenu umjetnu inteligenciju leži u implementaciji specijaliziranih malih jezičnih modela prilagođenih specifičnim vrstama napada i slučajevima upotrebe, a ne oslanjanju samo na velike, generativne modele umjetne inteligencije. Nasuprot tome, veliki jezični modeli pokazuju više obećanja za operacije kibernetičke sigurnosti kao što su automatizacija funkcija službe za pomoć, dohvaćanje standardnih operativnih procedura i pomoć ljudskim analitičarima. Težak posao preciznog otkrivanja i prevencije prijetnji najbolje će podnijeti visoko specijalizirani mali AI/ML modeli.

Uloga ljudske stručnosti

Ključno je koristiti AI/ML uz automatizaciju procesa kako bi se omogućila brza sanacija i obuzdavanje provjerenih prijetnji. U ovoj fazi, opremljeni incidentima visoke pouzdanosti, AI sustavi mogu pokrenuti automatizirane odgovore skrojene za svaku specifičnu vrstu napada—blokiranje zlonamjernih IP-ova [internetski protokol], izoliranje kompromitiranih hostova, provođenje prilagodljivih pravila i više. Međutim, ljudska stručnost ostaje integralna, potvrđujući rezultate umjetne inteligencije, primjenjujući kritičko razmišljanje i nadzirući radnje autonomnog odgovora kako bi se osigurala zaštita bez prekida poslovanja.

Nijansirano razumijevanje je ono što ljudi donose na stol. Također, analiziranje novih i složenih zlonamjernih prijetnji zahtijeva kreativnost i vještine rješavanja problema koje bi mogle biti izvan dosega strojeva.

Ljudska stručnost neophodna je u nekoliko ključnih područja:

  • Validacija i kontekstualizacija: AI sustavi, unatoč svojoj sofisticiranosti, ponekad mogu generirati lažne rezultate ili krivo protumačiti podatke. Ljudski analitičari potrebni su za provjeru valjanosti rezultata umjetne inteligencije i pružanja potrebnog konteksta koji bi umjetna inteligencija mogla previdjeti. Time se osigurava da su odgovori primjereni i razmjerni stvarnoj prijetnji.
  • Složena istraga prijetnji: Neke prijetnje su previše složene da bi ih umjetna inteligencija mogla sama riješiti. Ljudski stručnjaci mogu dublje istražiti te incidente, koristeći svoje iskustvo i intuiciju kako bi otkrili skrivene aspekte prijetnje koje bi umjetna inteligencija mogla promašiti. Ovaj ljudski uvid ključan je za razumijevanje cijelog opsega sofisticiranih napada i osmišljavanje učinkovitih protumjera.
  • Donošenje strateških odluka: Dok umjetna inteligencija može obavljati rutinske zadatke i obradu podataka, strateške odluke o ukupnom sigurnosnom položaju i dugoročnim obrambenim strategijama zahtijevaju ljudsku prosudbu. Stručnjaci mogu tumačiti uvide generirane umjetnom inteligencijom kako bi donijeli informirane odluke o raspodjeli resursa, promjenama politike i strateškim inicijativama.
  • Kontinuirano poboljšanje: ljudski analitičari doprinose kontinuiranom poboljšanju sustava umjetne inteligencije davanjem povratnih informacija i podataka o obuci. Njihovi uvidi pomažu u poboljšanju algoritama umjetne inteligencije, čineći ih s vremenom preciznijima i učinkovitijima. Ovaj simbiotski odnos između ljudske stručnosti i umjetne inteligencije osigurava da se oboje razvijaju zajedno kako bi odgovorili na nove prijetnje.

Optimizirano udruživanje čovjeka i stroja

U osnovi ove tranzicije je potreba za AI sustavima koji mogu učiti iz povijesnih podataka (nadzirano učenje) i kontinuirano se prilagođavati za otkrivanje novih napada kroz nenadzirane pristupe/pristupe učenju s potkrepljenjem. Kombinacija ovih metoda bit će ključna za zadržavanje ispred naprednih AI sposobnosti napadača.

Sve u svemu, umjetna inteligencija bit će ključna za branitelje kako bi povećali svoje sposobnosti otkrivanja i odgovora. Ljudska stručnost mora ostati čvrsto integrirana kako bi istraživala složene prijetnje, revidirala rezultate AI sustava i vodila strateške obrambene strategije. Optimizirani model udruživanja čovjek-stroj idealan je za budućnost.

Kako se ogromne količine sigurnosnih podataka gomilaju tijekom vremena, organizacije mogu primijeniti AI analitiku na ovu riznicu telemetrije kako bi stekle uvide za proaktivno traženje prijetnji i jačanje obrane. Kontinuirano učenje iz prethodnih incidenata omogućuje prediktivno modeliranje novih obrazaca napada. Kako mogućnosti umjetne inteligencije napreduju, uloga malih i specijaliziranih jezičnih modela skrojenih za specifične slučajeve sigurnosne upotrebe će rasti. Ovi modeli mogu dodatno smanjiti 'zamor od upozorenja' preciznim trijažiranjem najbitnijih upozorenja za ljudsku analizu. Autonomni odgovor, pokretan umjetnom inteligencijom, također se može proširiti za rješavanje više sigurnosnih zadataka Tier 1.

Međutim, ljudska prosudba i kritičko razmišljanje ostat će neophodni, posebno za incidente visoke ozbiljnosti. Nedvojbeno je budućnost optimiziranog udruživanja čovjeka i stroja, gdje umjetna inteligencija obrađuje obimnu obradu podataka i rutinske zadatke, omogućujući ljudskim stručnjacima da se usredotoče na istraživanje složenih prijetnji i sigurnosnu strategiju visoke razine.

Anand Naik, suosnivač i izvršni direktor, Securetek, radio je u korporativnom svijetu više od 25 godina s tvrtkama kao što je Symantec gdje je bio MD za južnu Aziju, a prethodno s IBM-om i Sun Microsystemsom u tehnološkim ulogama.

Anand je stručnjak za kibernetičku sigurnost. Surađivao je s nekoliko svjetskih divova pomažući im u definiranju njihove IT sigurnosne strategije, arhitekture i izvedbenih modela. On je jedan od vodećih stručnjaka za kibernetičku sigurnost i sudjelovao je u raznim političkim programima s Vladom Indije i drugim industrijskim tijelima. Odgovoran je za viziju proizvoda i operacije u Sequreteku.