Connect with us

Todellinen vaara kielen mallien takana: AI-välitteiset huijaukset

Ajatusjohtajat

Todellinen vaara kielen mallien takana: AI-välitteiset huijaukset

mm

Kuvittele tämä: Olet työssä, keskittyneenä tiukkaan määräaikaan, kun vastaanotat puhelun, joka näyttää tulevan äidisi puhelinnumerosta. Ääni toisessa päässä on epäsekoittainen, rauhallinen ja rakastava, mutta siinä on outo kiireen tuntua. Hän kertoo joutuneensa vakaviin ongelmiin Pariisissa lomaillessaan ja tarvitsee rahallista apua välittömästi järjestääkseen asiat. Tiedät hänen olevan Pariisissa, ja yksityiskohdat, joita hän antaa, aina hotellin nimeen asti, tekevät puhelun vielä vakuuttavammaksi. Ilman toista ajatteluasi siirrät rahaa, vain löytääksesi myöhemmin, että äitisi ei koskaan soittanut; se oli edistynyt AI-järjestelmä, joka jäljittelee täydellisesti hänen ääntään ja keksii yksityiskohtaisen skenaarion. Värisyttää, kun tajuat, mitä juuri tapahtui.

Tämä skenaario, joka oli aikaisemmin puhtaasti tieteiskirjallisuutta, on nyt uusiutuva todellisuus. AI-teknologioiden, kuten suurten kielen mallien (LLM), aamunkoitto on tuonut mukanaan uskomattomia edistysaskelia. On kuitenkin merkittävä uhka: AI-välitteiset huijaukset. Mahdollisuus sofistikoituneisiin huijauksiin, joita voimistaa tekoäly, on uusi uhka teknologisen edistysaskeleen horisontissa. Vaikka puhelinhuijaukset ovat olleet huolenaihe puhelimen keksimisestä lähtien, suurten kielen mallien (LLM) laaja integrointi jokaiseen digitaalisen viestinnän ulottuvuuteen on korottanut panokset dramaattisesti. Kun otamme AI:n potentiaalin vastaan, on meille ratkaisevaa vahvistaa puolustuksiamme näitä yhä sofistikoituneita uhkia vastaan.

Nykyinen puhelinhuijausten tilanne

Rikolliset ovat yrittäneet petkuttaa tietämättömiä yksilöitä siirtämään rahaa tai paljastamaan arkaluontoista tietoa vuosien ajan, mutta puhelinhuijausten yleisyydestä huolimatta monet näistä huijauksista ovat suhteellisen yksinkertaisia, ja ne perustuvat ihmisten lukemiseen käsikirjoitusta. Vaikka tämä rajoitus on olemassa, puhelinhuijaukset jatkavat olemasta kannattava rikollinen yritys.

Yhdysvaltain federalisen kauppakomission mukaan vuonna 2022 yksin amerikkalaiset menettivät yli 8,8 miljardia dollaria huijauksiin, ja merkittävä osa siitä oli puhelinhuijauksia, mikä tarkoittaa, että nämä taktiikat toimivat edelleen useiden haavoittuvissa yksilöissä, vaikka ne ovat nykyisessä, vähemmän kehittyneessä muodossaan. Mitä tapahtuu, kun ne kehittyvät?

AI-välitteisten huijauksien tulevaisuus

Puhelinhuijausten maisema on valmis dramaattiseen muutokseen useiden avainTeknologioiden myötä:

Large Language Models (LLM)

Nämä tekoälyjärjestelmät voivat luoda ihmismäistä tekstiä ja osallistua luonnollisiin keskusteluihin. Kun sovelletaan huijauksiin, LLM:t voivat luoda erittäin vakuuttavia ja sopeutuvia käsikirjoituksia, mikä tekee siitä paljon vaikeamman potentiaalisille uhreille tunnistaa huijaus.

Retrieval-Augmented Generation (RAG)

Tämä teknologia sallii LLM-järjestelmien pääsyn ja käytön laajoihin tietomääriin reaaliajassa. Huijarit voivat luoda profiilin henkilöstä heidän julkisesti saatavilla olevan tiedon perusteella, kuten heidän sosiaalisen median tileistä. He voivat myös käyttää sosiaalisen insinöörityön tekniikoita heidän ystävilleen ja perheenjäsenilleen kerätäkseen syvemmän tiedon. Tämä antaa heille pääsyn tietoihin, kuten kohteen identiteettiin, työtiedoihin tai jopa viimeaikaisiin toimiin. He voivat sitten käyttää RAG:ia antamaan LLM:lle tarvittava konteksti, mikä tekee heidän lähestymistavastaan erittäin henkilökohtaisen ja legitimin näköisen.

Synteettinen ääneneristysteknologia

Yritykset kuten Resemble AI ja Lyrebird ovat johtavassa asemassa luomassa erittäin realistisia AI-generoituja ääniä. Nämä teknologiat ovat kykeneviä tuottamaan mukautettua, ihmismäistä ääntä, jota voidaan käyttää erilaisiin sovelluksiin, aina virtuaaliavustajista automaattiseen asiakaspalveluun ja sisällönluomiseen. Yritykset kuten ElevenLabs työntävät rajoja eteenpäin sallimalla käyttäjien luoda synteettisiä ääniä, jotka voivat jäljitellä heidän omaa ääntään, mahdollistaen uuden tason mukautuvuutta ja sitoutumista digitaalisissa vuorovaikutuksissa.

Synteettinen videogenerointi

Yritykset kuten Synthesia ovat jo osoittaneet mahdollisuuden luoda realistista video sisältöä AI-generoituilla avatarilla. Tulevina vuosina tämä teknologia voisi sallia huijarit jäljitellä ystäviä tai perheenjäseniä tai luoda kokonaan kuvitteellisia hahmoja videopuheluihin, tuomalla aikaisemmin mahdottoman fyysisen realismin huijaukseen.

AI-huulienkronointi

Start-up-yritykset kuten Sync Labs kehittävät edistynyttä huulienkronointiteknologiaa, joka voi kohdistaa generoidun äänen videoon. Tätä voidaan käyttää luomaan erittäin vakuuttavia deep fake -videoita historiallisista hahmoista, poliitikoista, julkkiksista ja käytännössä kuka tahansa, edelleen hämärten todellisuuden ja petoksen rajaa.

Näiden teknologioiden yhdistelmä piirtää huolestuttavan kuvan. Kuvittele huijauspuhelun, jossa AI voi sopeuttaa keskusteluaan reaaliajassa, varustettuna henkilökohtaisella tiedolla kohteesta, ja jopa siirtyä videopuheluun, jossa näyttää olevan todellinen henkilö, jonka huulet liikkuvat täydellisessä synkrossa generoidun äänen kanssa. Petoksen mahdollisuus on todella valtava.

Tarve parannetuille turvatoimille

Kun nämä AI-välitteiset huijaukset tulevat yhä sofistikoituneemmiksi, identiteetin vahvistamisen ja aitouden varmistamisen menetelmien on täytettävä AI-kehitysten tahdit. On oltava sekä sääntely- että teknologisia edistysaskelia, jotta voidaan pitää verkkomaailma turvallisena.

Sääntelyparannukset

Tiukemmat tietosuojalait: Tiukempien tietosuojalakien toteuttaminen rajoittaisi henkilökohtaista tietoa, jota huijarit voivat hyödyntää. Nämä lait voivat sisältää tiukemmat vaatimukset tietojen keruulle, parannetut käyttäjän suostumusprotokollat ja ankarammat rangaistukset tietoturvaloukkauksista.

Yksityinen pilvi voimakkaimmille AI-malleille: Sääntely voisi vaatia, että voimakkaimmat AI-mallit isännöidään yksityisillä, turvallisilla pilvi-infrastruktuureilla eikä niitä saa julkaista avoimesti. Tämä rajoittaisi pääsyä edistyneimpiin teknologioihin, tehdäkseen huijareille vaikeammaksi käyttää niitä huijauksiin. (esim. https://security.apple.com/blog/private-cloud-compute/)

Kansainvälinen yhteistyö AI-sääntelyssä: Ottaen huomioon AI-teknologian globaalin luonteen, kansainvälinen yhteistyö AI-sääntelynormeissa voisi olla hyödyllistä. Kansainvälisen AI-sääntelynormien luomiseen ja valvontaan vastaavan elimen perustaminen voisi auttaa torjumaan rajat ylittäviä AI-rikkomuksia.

Julkisen tietoisuuden kampanjat: Hallitusten ja sääntelyelinten on sijoitettava julkisen tietoisuuden kampanjoihin, jotta kansalaiset voidaan kouluttaa AI-huijausten potentiaalisista riskeistä ja siitä, miten suojella itseään. Tietoisuus on ratkaiseva ensimmäinen askel valtuuttaa yksilöitä ja organisaatioita toteuttamaan tarvittavat turvatoimet.

Nykyiset AI-sääntelyt eivät ole riittäviä estämään huijauksia, ja tulevan sääntelyn haaste on monimutkaisempi monien voimakkaiden teknologioiden avoimen lähdekoodin luonteen vuoksi. Tämä avoimuus sallii kenen tahansa pääsyn ja muokkaamisen näistä teknologioista omiin tarkoituksiinsa. Sen seurauksena vahvempien sääntelyjen ohella tarvitaan turvallisuusteknologioiden edistysaskelia.

Synteettisen datan havaitseminen

Synteettisen äänen havaitseminen: Kun huijarit käyttävät AI:ta, meidän on tehtävä sama. Yritykset kuten Pindrop kehittävät AI-pohjaisia järjestelmiä, jotka voivat havaita synteettisen äänen reaaliajassa puheluiden aikana. Heidän teknologiansa analysoi yli 1 300 ominaisuutta puhelun äänestä määrittääkseen, onko se todellisen henkilön vai sofistikoituneen AI-järjestelmän tuottama.

Synteettisen videon havaitseminen: Synteettisen videon havaitseminen: Kuten ääni voidaan manipuloida AI:n avulla, voidaan myös videoa, mikä aiheuttaa merkittäviä uhkia deep fake – ja muiden synteettisten video sisällön muodossa. Yritykset kuten Deepware johtavat synteettisen videon havaitsemisessa kehittyvien teknologioiden kehittämisessä. Deepwaren alusta käyttää edistynyttä koneoppimisalgoritmiikkaa analysoimaan video datan pieniä epäjohdonmukaisuuksia, kuten epäluonnollisia liikkeitä, epäsäännöllistä valaistusta ja pikselianomaliat, jotka usein ovat läsnä AI-generoituissa sisällöissä. Nämä poikkeamat havaitsemalla Deepwaren teknologia voi määrittää, onko video aito vai onko se manipuloitu, suojellen yksilöitä ja organisaatioita huijauksilta ja virheellisiltä tietoilta.

Tunnistusautentikointi

On kehitteillä useita tapoja vahvistaa käyttäjän identiteettiä, ja yksi tai useampi näistä tulee yleistymään tulevina vuosina tehdäkseen internetin turvallisemmaksi.

Kahden vaiheen autentikointi etäkeskusteluissa: Kahden vaiheen autentikointi (2FA) on edelleen perustavanlaatuinen osa turvallista viestintää. Tässä menetelmässä jokainen puhelu tai sähköposti laukaisee tekstiviestin, jossa on yksilöllinen vahvistuskoodi, samoin kuin nykyiset sähköpostirekisteröinnit. Vaikka 2FA on tehokas perusautentikoinnissa, sen rajoitukset tarkoittavat, ettei sitä voida luottaa kaikissa yhteyksissä, joten on kehitettävä edistyneempiä menetelmiä, jotta voidaan taata kattava internetin turvallisuus, joka toimii taustalla.

Käyttäytymiseen perustuva monivaiheinen autentikointi: Käyttäjän identiteetin vahvistamisen lisäksi alkuun, tulevaisuuden turvajärjestelmät voivat jatkuvasti analyysia käyttäjän käyttäytymistä koko vuorovaikutuksen ajan. Yritykset kuten BioCatch käyttävät käyttäjän biometrisiä ominaisuuksia luomaan käyttäjäprofiileja, jotka perustuvat siihen, miten yksilöt vuorovaikuttavat laitteidensa kanssa. Tämä teknologia voi havaita poikkeamia käyttäytymisessä, jotka saattavat osoittaa, että huijari käyttää varastettua tietoa, vaikka he ovat läpäisseet alkuvaiheen autentikointitarkastukset.

Biometrisiin perustuva autentikointi: Yritykset kuten Onfido ovat edelläkävijöitä biometrisessä vahvistusteknologiassa, tarjoten AI-pohjaisia identiteetin vahvistusvälineitä, jotka havaitsevat sofistikoituneet deep fake – ja muut identiteettivarkauden muodot. Heidän järjestelmänsä käyttää asiakirjojen vahvistusta ja biometristen tietojen analyysiä varmistaakseen, että henkilö toisessa päässä on todella se, joka väittää olevansa.

Edistynyt tietämykseen perustuva autentikointi: Siirtymällä yksinkertaisista turvallisuuskysymyksistä, tulevaisuuden autentikointijärjestelmät voivat sisältää dynaamisia, AI-generoituja kysymyksiä, jotka perustuvat käyttäjän digitaaliseen jälkeen ja viimeaikaisiin toimiin. Esimerkiksi Prove, puhelin keskeinen identiteettiyritys, kehittää ratkaisuja, jotka hyödyntävät puhelin tiedustelua ja käyttäytymisanalytiikkaa identiteetin vahvistamiseen. Heidän teknologiansa analysoi kuviota, jossa henkilö käyttää laitetta, luoden yksilöllisen “identiteetin allekirjoituksen”, joka on huomattavasti vaikeampi huijareille jäljitellä.

Blockchain-pohjainen identiteetin vahvistusautentikointi: Blockchain-tekniikka tarjoaa hajautetun ja muuttumattoman tavan identiteetin vahvistamiseen. Yritykset kuten Civic ovat edelläkävijöitä blockchain-pohjaisissa identiteetin vahvistusjärjestelmissä, jotka sallivat käyttäjien hallita henkilökohtaisia tietojaan samalla tarjoten turvallisen autentikoinnin. Nämä järjestelmät luovat vahvistetun, muuttumattoman identiteetin, joka on erinomainen korkean riskin transaktioiden hallintaan.

Johtopäätös

LLM:ien, RAG:in, synteettisen ääneneristysteknologian, synteettisen videogeneroinnin ja huulienkronoinnin yhdistelmä on jonkinlainen kaksiteräinen miekka. Vaikka nämä edistysaskeleet tarjoavat valtavan potentiaalin positiivisille sovelluksille, ne myös asettavat merkittäviä riskejä, kun niitä käytetään huijareiden toimesta.

Tämä jatkuva kilpailu turvallisuusasiantuntijoiden ja kyberrikollisten välillä korostaa jatkuvan innovaation ja valppauden tarvetta digitaalisen turvallisuuden alalla. Voimme pyrkiä hyödyntämään näiden voimakkaiden työkalujen hyödyt vähentämällä samalla niiden potentiaalista vahinkoa vain tunnustamalla ja valmistautumalla näihin riskeihin.

Kattava sääntely, koulutus näistä uusista huijaustyyypeistä, investointi edistyneisiin turvatoimiin ja ehkä ennen kaikkea terve skeptisismi jokaiselta meistä, kun vuorovaikutamme tuntemattomien tahojen kanssa verkossa tai puhelimessa, on olennaista navigoidessa tässä uudessa maisemassa.

n CTO ja perustaja, joka on mullistava AI-startup mielialan suorituskyvyn parantamisessa. Syvällä taustalla tietokoneen näkemisessä ja koneoppimisessa Rishab tuo runsaasti kokemusta tekoälyalalle.

Rishabin ura käsittää laajaa tutkimusta tietokoneen näkemisessä terveydenhuollossa Stanfordin yliopistossa kuuluisan AI-asiantuntija Fei-Fei Lin johdolla. Hänen työnsä on julkaistu arvostetuissa lehdissä, kuten Nature ja NeurIPS. Ennen Pinnaclen perustamista Rishab johti Apple Intelligence ja On-device Machine Learning -ominaisuuksien kehittämistä Applen luona, jossa hän haki yli 20 patenttia.

Stanfordin valmistunut, jolla on kunnia-arvosana tietojenkäsittelytieteessä, Rishab on onnistuneesti kerännyt Pinnacle Intelligence -yritykselle pre-seed -rahoituskierroksen.