stubs Ģeneratīvs AI kiberdrošībā: kaujas lauks, draudi un tagad aizsardzība — Unite.AI
Savienoties ar mums

Domu vadītāji

Ģeneratīvs AI kiberdrošībā: kaujas lauks, draudi un tagad aizsardzība

mm

Izdots

 on

Kaujas lauks

Tas, kas sākās kā aizraušanās par ģeneratīvā AI iespējām, ātri kļuva par bažām. Ģeneratīvie AI rīki, piemēram, ChatGPT, Google Bard, Dall-E u.c., turpina atrasties virsrakstos drošības un privātuma apsvērumu dēļ. Tas pat liek apšaubīt, kas ir īsts un kas nav. Ģeneratīvais AI var izsūknēt ļoti ticamu un tādējādi pārliecinošu saturu. Tik daudz, ka, noslēdzot neseno 60 minūšu segmentu par AI, vadītājs Skots Pellijs atstāja skatītājus ar šo paziņojumu; "Mēs beigsim ar piezīmi, kas nekad nav parādījusies 60 minūtēs, taču vienu, AI revolūcijas laikā, iespējams, dzirdat bieži: iepriekšējā tika izveidota ar 100% cilvēku saturu.

Ģeneratīvā AI kiberkarš sākas ar šo pārliecinošo un reālās dzīves saturu, un kaujas laukā hakeri izmanto ģeneratīvo AI, izmantojot tādus rīkus kā ChatGPT utt. veikt savus noziegumus, izmantojot sociālo inženieriju, pikšķerēšanas un uzdošanās uzbrukumus.

Draudi

Ģeneratīvais AI spēj veicināt arvien sarežģītākus kiberuzbrukumus.

Tā kā tehnoloģija var viegli radīt tik pārliecinošu un cilvēkiem līdzīgu saturu, drošības komandām ir grūtāk viegli pamanīt jaunus kiberkrāpniekus, kas izmanto AI. AI radītas krāpniecības var izpausties kā sociālās inženierijas uzbrukumi, piemēram, vairāku kanālu pikšķerēšanas uzbrukumi, kas tiek veikti, izmantojot e-pastu un ziņojumapmaiņas lietotnes. Reāls piemērs varētu būt e-pasts vai ziņojums, kas satur dokumentu, kas tiek nosūtīts uzņēmuma vadītājam no trešās puses piegādātāja, izmantojot programmu Outlook (e-pasts) vai Slack (ziņojumapmaiņas lietotne). E-pasts vai ziņojums liek viņiem noklikšķināt uz tā, lai skatītu rēķinu. Izmantojot ģeneratīvo AI, var būt gandrīz neiespējami atšķirt viltotu un īstu e-pastu vai ziņojumu. Tieši tāpēc tas ir tik bīstami.

Tomēr viens no satraucošākajiem piemēriem ir tas, ka ar ģeneratīvo AI kibernoziedznieki var izraisīt uzbrukumus vairākās valodās — neatkarīgi no tā, vai hakeris patiešām runā attiecīgajā valodā. Mērķis ir izmest plašu tīklu, un kibernoziedznieki nediskriminēs upurus valodas dēļ.

Ģeneratīvā AI attīstība liecina, ka šo uzbrukumu mērogs un efektivitāte turpinās pieaugt.

Aizsardzība

Ģeneratīvā mākslīgā intelekta kiberaizsardzība ir pazīstama kā iztrūkstošā mīkla. Līdz šim brīdim. Izmantojot cīņu pret mašīnu vai sasaistot AI pret AI, mēs varam aizsargāties pret šiem jaunajiem un augošajiem draudiem. Bet kā šī stratēģija būtu jādefinē un kā tā izskatās?

Pirmkārt, nozarei jārīkojas, lai savienotu datoru ar datoru, nevis cilvēku pret datoru. Lai īstenotu šos centienus, mums ir jāapsver uzlabotas noteikšanas platformas, kas var atklāt AI radītus draudus, samazināt laiku, kas nepieciešams, lai to atzīmētu, un laiku, kas nepieciešams, lai atrisinātu sociālās inženierijas uzbrukumu, kas radies no ģeneratīvā AI. Kaut kas tāds, ko cilvēks nespēj izdarīt.

Mēs nesen veicām pārbaudi, kā tas var izskatīties. Mēs likām ChatGPT sagatavot uz valodu balstītu atzvanīšanas pikšķerēšanas e-pasta ziņojumu vairākās valodās, lai noskaidrotu, vai Natural Language Understanding platforma vai uzlabotā noteikšanas platforma to var noteikt. Mēs sniedzām ChatGPT uzvedni: "uzrakstiet steidzamu e-pastu, aicinot kādu zvanīt par pēdējo paziņojumu par programmatūras licences līgumu." Mēs arī pavēlējām to rakstīt angļu un japāņu valodā.

Uzlabotā noteikšanas platforma nekavējoties varēja atzīmēt e-pastus kā sociālās inženierijas uzbrukumu. BET, vietējās e-pasta vadīklas, piemēram, Outlook pikšķerēšanas noteikšanas platforma, nevarēja. Pat pirms ChatGPT izlaišanas sociālā inženierija, kas veikta, izmantojot sarunvalodas, valodas uzbrukumus, izrādījās veiksmīga, jo tie varēja izvairīties no tradicionālās vadības, nonākot iesūtnēs bez saites vai lietderīgās slodzes. Tātad, jā, lai aizsargātos pret mašīnu, ir nepieciešama cīņa pret mašīnu, taču mums ir arī jābūt pārliecinātiem, ka mēs izmantojam efektīvu artilēriju, piemēram, progresīvu atklāšanas platformu. Ikvienam, kura rīcībā ir šie rīki, ir priekšrocības cīņā pret ģeneratīvo AI.

Runājot par sociālās inženierijas uzbrukumu mērogu un ticamību, ko nodrošina ChatGPT un citi ģeneratīvā AI veidi, var uzlabot arī mašīnu pret mašīnu aizsardzību. Piemēram, šo aizsardzības līdzekli var izvietot vairākās valodās. Tai arī nav jāaprobežojas tikai ar e-pasta drošību, bet to var izmantot arī citiem saziņas kanāliem, piemēram, lietotnēm, piemēram, Slack, WhatsApp, Teams utt.

Esiet modrs

Ritinot LinkedIn, viens no mūsu darbiniekiem saskārās ar ģeneratīvā AI sociālās inženierijas mēģinājumu. Parādījās dīvaina “baltās grāmatas” lejupielādes reklāma ar to, ko var dāsni raksturot kā “savdabīgu” reklāmu. Pēc rūpīgākas pārbaudes darbinieks redzēja indikatora krāsu rakstu apakšējā labajā stūrī, kas bija apzīmogots uz attēliem, ko ražojis Dall-E — AI modelis, kas ģenerē attēlus no teksta uzvednēm.

Sastapšanās ar šo viltoto LinkedIn reklāmu bija nozīmīgs atgādinājums par jaunām sociālās inženierijas briesmām, kas tagad parādās kopā ar ģeneratīvo AI. Svarīgāk nekā jebkad agrāk ir būt modram un aizdomīgam.

Ir pienācis ģeneratīvā AI laikmets, ko izmanto kibernoziegumiem, un mums ir jāsaglabā modrība un jābūt gataviem cīnīties ar katru mūsu rīcībā esošo rīku.

Kriss Lemmens ir uzņēmuma izpilddirektors (CEO). SafeGuard Cyber. Kriss ir pieredzējis vecākais vadītājs ar vairāk nekā 20 gadu pieredzi, strādājot dažos no pasaulē visstraujāk augošajiem un veiksmīgākajiem tehnoloģiju uzņēmumiem.