Vođe misli
Izgradnja povjerenja u AI uz provjeru ID-a

Generativna umjetna inteligencija zaokupila je interes u tvrtkama diljem svijeta. Zapravo, 60% organizacija koje su prijavile usvajanje umjetne inteligencije sada koristi generativnu umjetnu inteligenciju. Današnji se lideri utrkuju kako bi utvrdili kako ugraditi AI alate u svoje tehnološke nizove kako bi ostali konkurentni i relevantni – a AI programeri stvaraju više alata nego ikad prije. No, s brzim usvajanjem i prirodom tehnologije, mnogi sigurnosni i etički problemi nisu u potpunosti uzeti u obzir jer tvrtke žure ugraditi najnoviju i najbolju tehnologiju. Kao rezultat toga, povjerenje opada.
Nedavno istraživanje samo 48% Amerikanaca vjeruje da je umjetna inteligencija sigurna i sigurna, dok 78% kaže da su vrlo ili donekle zabrinuti da se umjetna inteligencija može koristiti za zlonamjerne namjere. Iako je utvrđeno da umjetna inteligencija poboljšava svakodnevne tijekove rada, potrošači su zabrinuti zbog loših aktera i njihove sposobnosti da manipuliraju umjetnom inteligencijom. Mogućnosti deepfakea, na primjer, postaju sve veća prijetnja kako se masama povećava dostupnost tehnologije.
Više nije dovoljno imati AI alat. Da bi umjetna inteligencija dosegla svoj pravi, korisni potencijal, tvrtke moraju uključiti umjetnu inteligenciju u rješenja koja pokazuju odgovornu i održivu upotrebu tehnologije kako bi potrošačima donijeli veće povjerenje, posebno u kibernetičkoj sigurnosti gdje je povjerenje ključno.
AI kibersigurnosni izazovi
Generativna AI tehnologija napreduje velikom brzinom i programeri tek sada shvaćaju važnost uvođenja ove tehnologije u poduzeće, što se vidi iz nedavnog pokretanja ChatGPT Enterprisea.
Trenutna AI tehnologija sposobna je postići stvari o kojima se prije manje od deset godina govorilo samo u području znanstvene fantastike. Impresivan je način na koji funkcionira, ali još je impresivnija relativno brza ekspanzija u kojoj se sve to događa. To je ono što AI tehnologiju čini tako skalabilnom i dostupnom tvrtkama, pojedincima i, naravno, prevarantima. Dok su mogućnosti AI tehnologije predvodile inovacije, njezina široka uporaba također je dovela do razvoja opasne tehnologije kao što je deepfakes-as-a-service. Izraz "deepfake" izveden je iz tehnologije koja stvara ovaj poseban stil manipuliranog sadržaja (ili "lažnog") koji zahtijeva korištenje tehnika dubokog učenja.
Prevaranti će uvijek slijediti novac koji im osigurava najveći ROI – stoga će svaki posao s visokim potencijalnim povratom biti njihova meta. To znači da će fintech, tvrtke koje plaćaju fakture, državne službe i trgovci robom visoke vrijednosti uvijek biti na vrhu njihova popisa.
Nalazimo se na mjestu gdje je povjerenje u pitanju, a potrošači su sve manje vrijedni povjerenja, što prevarantima amaterima daje više mogućnosti za napad nego ikad. Uz novootkrivenu dostupnost AI alata i sve nižu cijenu, lošim je glumcima bilo koje razine vještina lakše manipulirati slikama i identitetima drugih. Mogućnosti Deepfakea postaju sve dostupnije masama putem deepfake aplikacija i web stranica, a stvaranje sofisticiranih deepfake zahtjeva vrlo malo vremena i relativno nisku razinu vještina.
S upotrebom umjetne inteligencije također smo vidjeli porast preuzimanja računa. Deepfake koje je generirala umjetna inteligencija olakšava svakome stvaranje lažnih predstavljanja ili sintetičkih identiteta, bilo da se radi o slavnim osobama ili čak vašem šefu.
AI i generativne jezične aplikacije Large Language Model (LLM) mogu se koristiti za stvaranje sofisticiranije prijevare koja je teško otkriti i ukloniti. LLM-i su posebno stvorili široku upotrebu phishing napada koji mogu savršeno govoriti vaš materinji jezik. To također stvara rizik od "ljubazne prijevare" u velikim razmjerima, kada se osoba poveže s nekim putem web stranice ili aplikacije za upoznavanje, ali osoba s kojom komunicira je prevarant koji koristi lažni profil. To navodi mnoge društvene platforme da razmotre uvođenje provjera "dokaza ljudskosti" kako bi ostale održive u velikom broju.
Međutim, ova trenutna sigurnosna rješenja koja koriste analizu metapodataka ne mogu zaustaviti loše aktere. Deepfeke otkrivanje temelji se na klasifikatorima koji traže razlike između stvarnog i lažnog. Međutim, ovo otkrivanje više nije dovoljno snažno jer ove napredne prijetnje zahtijevaju više podatkovnih točaka za otkrivanje.
AI i potvrda identiteta: zajednički rad
Razvojni programeri umjetne inteligencije moraju se usredotočiti na korištenje tehnologije za pružanje poboljšanih zaštitnih mjera za dokazane mjere kibernetičke sigurnosti. Ne samo da će to omogućiti pouzdaniju upotrebu umjetne inteligencije, već može pružiti i odgovorniju upotrebu – potičući bolje prakse kibernetičke sigurnosti uz unaprjeđenje mogućnosti postojećih rješenja.
Glavni slučaj upotrebe ove tehnologije je unutar provjere identiteta. Krajolik prijetnji umjetne inteligencije neprestano se razvija i timovi moraju biti opremljeni tehnologijom koja može brzo i jednostavno prilagoditi i implementirati nove tehnike.
Neke mogućnosti u korištenju umjetne inteligencije s tehnologijom provjere identiteta uključuju:
- Ispitivanje ključnih atributa uređaja
- Korištenje protuAI za prepoznavanje manipulacije: Kako bi se izbjegla prijevara i zaštitili važni podaci, protuAI može identificirati manipulaciju dolaznih slika.
- Tretiranje 'nedostatka podataka' kao faktora rizika u određenim okolnostima
- Aktivno traženje uzoraka u više sesija i kupaca
Ova slojevita obrana koju pružaju umjetna inteligencija i tehnologija za provjeru identiteta, istražuju osobu, njen potvrđeni identifikacijski dokument, mrežu i uređaj, smanjujući rizik od manipulacije kao rezultat dubokih lažiranja i osiguravajući da samo pouzdani, pravi ljudi dobiju pristup vašim uslugama.
AI i potvrda identiteta moraju nastaviti raditi zajedno. Što su podaci o obuci robusniji i potpuniji, to je model bolji, a budući da je umjetna inteligencija dobra onoliko koliko su dobri podaci koji se unose, što više podatkovnih točaka imamo, točnija provjera identiteta i umjetna inteligencija mogu biti.
Budućnost AI i ID verifikacije
Teško je vjerovati bilo čemu na internetu osim ako nije dokazano iz pouzdanog izvora. Danas srž online povjerenja leži u dokazanom identitetu. Pristup LLM-ovima i deepfake alatima predstavlja sve veći rizik od online prijevare. Skupine organiziranog kriminala dobro su financirane i sada su u mogućnosti koristiti najnoviju tehnologiju u većem opsegu.
Tvrtke moraju proširiti svoj obrambeni krajolik i ne smiju se bojati ulagati u tehnologiju, čak i ako to stvara malo trzavica. Više ne može postojati samo jedna obrambena točka – trebaju pregledati sve podatkovne točke povezane s pojedincem koji pokušava dobiti pristup sustavima, robi ili uslugama i nastaviti provjeravati tijekom svog putovanja.
Deepfake će se nastaviti razvijati i postajati sve sofisticiraniji, poslovni čelnici trebaju kontinuirano pregledavati podatke iz implementacije rješenja kako bi identificirali nove obrasce prijevare i radili na stalnom razvoju svojih strategija kibernetičke sigurnosti uz prijetnje.