stubs Uzticības veidošana AI ar ID verifikāciju — Unite.AI
Savienoties ar mums

Domu vadītāji

Veidojiet uzticēšanos AI, izmantojot ID verifikāciju

mm

Izdots

 on

Ģeneratīvais AI ir piesaistījis interesi visos uzņēmumos visā pasaulē. Patiesībā, 60% organizāciju, par kurām ziņots, ka ir pieņemts AI, tagad izmanto ģeneratīvo AI. Mūsdienu līderi sacenšas, lai noteiktu, kā iekļaut AI rīkus savos tehnoloģiju komplektos, lai saglabātu konkurētspēju un atbilstību, un AI izstrādātāji rada vairāk rīku nekā jebkad agrāk. Taču, ņemot vērā tehnoloģiju straujo ieviešanu un raksturu, daudzi drošības un ētikas jautājumi netiek pilnībā ņemti vērā, jo uzņēmumi steidzas iekļaut jaunākās un labākās tehnoloģijas. Līdz ar to uzticība mazinās.

Nesen veikta aptauja konstatēja, ka tikai 48% amerikāņu uzskata, ka AI ir drošs, savukārt 78% apgalvo, ka ir ļoti vai zināmā mērā nobažījušies par to, ka AI var izmantot ļaunprātīgiem nolūkiem. Lai gan ir konstatēts, ka AI uzlabo ikdienas darbplūsmas, patērētāji ir nobažījušies par sliktiem dalībniekiem un viņu spēju manipulēt ar AI. Piemēram, dziļās viltošanas iespējas kļūst par draudiem, jo ​​tehnoloģijas kļūst pieejamas masām.

Ar AI rīku vairs nepietiek. Lai mākslīgais intelekts sasniegtu savu patieso, labvēlīgo potenciālu, uzņēmumiem ir jāiekļauj AI risinājumos, kas demonstrē atbildīgu un dzīvotspējīgu tehnoloģijas izmantošanu, lai radītu lielāku uzticēšanos patērētājiem, jo ​​īpaši kiberdrošības jomā, kur uzticēšanās ir svarīga.

AI kiberdrošības izaicinājumi

Ģeneratīvā mākslīgā intelekta tehnoloģija attīstās strauji, un izstrādātāji tikai tagad saprot, cik svarīgi ir ieviest šo tehnoloģiju uzņēmumā, kā liecina nesenā ChatGPT Enterprise palaišana.

Pašreizējā AI tehnoloģija spēj sasniegt lietas, par kurām zinātniskās fantastikas jomā runāja tikai pirms mazāk nekā desmit gadiem. Tas, kā tas darbojas, ir iespaidīgs, bet salīdzinoši ātrā paplašināšanās, kurā tas viss notiek, ir vēl iespaidīgāks. Tas padara AI tehnoloģiju tik mērogojamu un pieejamu uzņēmumiem, privātpersonām un, protams, krāpniekiem. Lai gan AI tehnoloģijas iespējas ir virzījušās uz inovācijām, tās plašā izmantošana ir radījusi arī bīstamu tehnoloģiju, piemēram, dziļo viltojumu kā pakalpojumu, attīstību. Termins “deepfake” ir atvasināts no tehnoloģijas, kas rada šo konkrēto manipulējamā satura stilu (vai “viltus”), kas prasa dziļas mācīšanās paņēmienu izmantošanu.

Krāpnieki vienmēr sekos naudai, kas viņiem nodrošina vislielāko ieguldījumu atdevi, tāpēc viņu mērķis būs jebkurš bizness ar lielu atdeves potenciālu. Tas nozīmē, ka fintech, uzņēmumi, kas maksā rēķinus, valdības pakalpojumi un augstvērtīgu preču mazumtirgotāji vienmēr būs to saraksta augšgalā.

Mēs atrodamies vietā, kur ir apdraudēta uzticēšanās, un patērētāji kļūst arvien mazāk uzticami, dodot krāpniekiem amatieriem vairāk iespēju uzbrukt. Pateicoties jaunatklātajai AI rīku pieejamībai un arvien zemām izmaksām, jebkura līmeņa sliktiem dalībniekiem ir vieglāk manipulēt ar citu attēliem un identitāti. Deepfake iespējas kļūst arvien pieejamākas masām, izmantojot deepfake lietotnes un vietnes, un izsmalcinātu dziļo viltojumu izveide prasa ļoti maz laika un salīdzinoši zemu prasmju līmeni.

Izmantojot AI, mēs esam arī novērojuši kontu pārņemšanas pieaugumu. AI radīti dziļi viltojumi ļauj ikvienam viegli izveidot uzdošanos vai sintētisku identitāti neatkarīgi no tā, vai runa ir par slavenībām vai pat jūsu priekšnieku.“

AI un Large Language Model (LLM) ģeneratīvās valodas lietojumprogrammas var izmantot, lai radītu sarežģītākas un izvairīgākas krāpšanas, kuras ir grūti atklāt un noņemt. LLM īpaši ir plaši izmantojuši pikšķerēšanas uzbrukumus, kas lieliski runā jūsu dzimtajā valodā. Tie arī rada liela mēroga “romantiskas krāpniecības” risku, kad persona izveido saikni ar kādu, izmantojot iepazīšanās vietni vai lietotni, bet persona, ar kuru viņi sazinās, ir krāpnieks, izmantojot viltus profilu. Tas liek daudzām sociālajām platformām apsvērt iespēju izmantot "cilvēcības pierādījumu" pārbaudes, lai saglabātu dzīvotspēju mērogā.

Tomēr šie pašreizējie drošības risinājumi, kas izmanto metadatu analīzi, nevar apturēt sliktus dalībniekus. Dziļās viltojumu noteikšanas pamatā ir klasifikatori, kas meklē atšķirības starp īsto un viltoto. Tomēr šī noteikšana vairs nav pietiekami spēcīga, jo šo uzlaboto apdraudējumu noteikšanai ir nepieciešams vairāk datu punktu.

AI un identitātes pārbaude: darbs kopā

AI izstrādātājiem ir jākoncentrējas uz tehnoloģiju izmantošanu, lai nodrošinātu uzlabotus drošības pasākumus pārbaudītiem kiberdrošības pasākumiem. Tas ne tikai nodrošinās uzticamāku AI lietojumu, bet arī var nodrošināt atbildīgāku lietošanu, veicinot labāku kiberdrošības praksi, vienlaikus uzlabojot esošo risinājumu iespējas.

Šīs tehnoloģijas galvenais izmantošanas gadījums ir identitātes verifikācija. AI draudu ainava nepārtraukti attīstās, un komandām ir jābūt aprīkotām ar tehnoloģijām, kas var ātri un viegli pielāgot un ieviest jaunas metodes.

Dažas AI izmantošanas iespējas ar identitātes verifikācijas tehnoloģiju ietver:

  • Ierīces galveno atribūtu pārbaude
  • Izmantojot counter-AI, lai identificētu manipulācijas: Lai izvairītos no krāpšanas un aizsargātu svarīgus datus, AI var identificēt manipulācijas ar ienākošajiem attēliem.
  • “Datu neesamības” uztveršana kā riska faktors noteiktos apstākļos
  • Aktīvi meklē modeļus vairākās sesijās un klientiem

Šie daudzslāņu aizsardzības līdzekļi, ko nodrošina gan AI, gan identitātes verifikācijas tehnoloģija, izmeklē personu, tās apliecināto identitātes dokumentu, tīklu un ierīci, līdz minimumam samazinot manipulāciju risku dziļo viltojumu rezultātā un nodrošinot, ka tikai uzticami, patiesi cilvēki var piekļūt jūsu pakalpojumiem.

AI un identitātes pārbaudei jāturpina sadarboties. Jo izturīgāki un pilnīgāki ir apmācības dati, jo labāks modelis kļūst, un, tā kā AI ir tikai tik labi, cik dati tiek ievadīti, jo vairāk datu punktu mums ir, jo precīzāka var būt identitātes pārbaude un AI.

AI un ID verifikācijas nākotne

Ir grūti kaut kam uzticēties tiešsaistē, ja vien to nepierāda uzticams avots. Mūsdienās tiešsaistes uzticības pamatā ir pārbaudīta identitāte. Pieejamība LLM un dziļās viltošanas rīkiem rada pieaugošu tiešsaistes krāpšanas risku. Organizētās noziedzības grupas ir labi finansētas, un tagad tās var izmantot jaunākās tehnoloģijas plašākā mērogā.

Uzņēmumiem ir jāpaplašina sava aizsardzības ainava, un tie nedrīkst baidīties investēt tehnoloģijās, pat ja tas rada nelielu berzi. Vairs nevar būt tikai viens aizsardzības punkts — viņiem ir jāaplūko visi datu punkti, kas saistīti ar personu, kura mēģina piekļūt sistēmām, precēm vai pakalpojumiem, un jāturpina pārbaudīt visa ceļojuma laikā.

Padziļināti viltojumi turpinās attīstīties un kļūt sarežģītāki, uzņēmumu vadītājiem ir nepārtraukti jāpārskata dati no risinājumu izvietošanas, lai identificētu jaunus krāpšanas modeļus un jāstrādā, lai nepārtraukti attīstītu savas kiberdrošības stratēģijas kopā ar draudiem.

Kā izpilddirektors un līdzdibinātājs Kārels ir stratēģiskais domātājs un sapņotājs Veriff.
Ar lielu enerģiju un entuziasmu viņš mudina Veriff komandu iestāties par godīgumu digitālajā jomā
pasaulē un palīdz komandai soli priekšā krāpšanu un konkurenci dinamiskajā tiešsaistes pasaulē
pārbaude. 2023. gadā Kārels tika godināts ES Forbes 30 līdz 30, 2020. gadā viņš tika nosaukts par EY
Gada uzņēmējs Igaunijā un Ziemeļvalstu biznesa ziņojums viņu iecēlis vienu no 25 visvairāk
ietekmīgi jaunie uzņēmēji Ziemeļeiropā.