Connect with us

Tankeledare

Det verkliga faran med språkmodeller: AI-drivna bedrägerier

mm

Föreställ er följande: Ni är på jobbet, fokuserade på en tidsbegränsad deadline, när ni får ett samtal från vad som verkar vara er mors telefonnummer. Rösten i andra änden är utan tvekan hennes, lugn och kärleksfull, men med en ovanlig antydan till brådska. Hon berättar att hon har hamnat i allvarliga problem medan hon är på semester i Paris och behöver er ekonomiska hjälp omedelbart för att lösa problemen. Ni vet att hon är i Paris, och detaljerna hon tillhandahåller, ända ner till namnet på hennes hotell, gör samtalet ännu mer övertygande. Utan att tveka överför ni pengarna, för att senare upptäcka att er mor aldrig gjorde det samtalet; det var ett avancerat AI-system som perfekt imiterade hennes röst och fabricerade en detaljerad scenario. Rysningar löper nerför er rygg när ni inser vad som just hände.

Detta scenario, som en gång var ren science fiction, är nu en framväxande verklighet. Gryningen av AI-teknologier som stora språkmodeller (LLM) har medfört otroliga framsteg. Dock hotar en betydande fara: AI-drivna bedrägerier. Potentialen för sofistikerade bedrägerier som drivs av artificiell intelligens är en helt ny fara på horisonten av teknologisk framsteg. Medan telefonbedrägerier har varit ett problem sedan telefonens uppfinning, har den breda integrationen av stora språkmodeller (LLM) i varje aspekt av digital kommunikation dramatiskt höjt insatserna. Medan vi omfamnar AI:s potential, är det avgörande att vi också stärker våra försvar mot dessa alltmer sofistikerade hot.

Dagens landskap av telefonbedrägerier

Kriminella har försökt lura oskyldiga individer att överföra pengar eller avslöja känslig information i år, men trots förekomsten av telefonbedrägerier, är många av dessa bedrägerier relativt osofistikerade, och förlitar sig på mänskliga skript-läsande operatörer. Ändå, trots denna begränsning, fortsätter telefonbedrägerier att vara en lukrativ kriminell verksamhet.

Enligt US Federal Trade Commission, förlorade amerikanerna över 8,8 miljarder dollar till bedrägerier 2022, med en betydande andel tillskriven telefonbedrägerier, vilket betyder att även i deras nuvarande, mindre avancerade form, fungerar många av dessa taktiker fortfarande på sårbara individer. Vad händer när de utvecklas?

AI-drivna bedrägeriers framtid

Landskapet av telefonbedrägerier är på väg att genomgå en dramatisk förändring med ankomsten av flera nyckelteknologier:

Stora språkmodeller (LLM)

Dessa AI-system kan generera mänsklig text och engagera sig i naturliga samtal. När de tillämpas på bedrägeri, kan LLM skapa högt övertygande och anpassningsbara skript, vilket gör det mycket svårare för potentiella offer att identifiera bedrägeriet.

Retrieval-Augmented Generation (RAG)

Denna teknik tillåter LLM-system att komma åt och utnyttja stora mängder information i realtid. Bedragare kan bygga en profil av en person baserat på deras offentligt tillgängliga information, såsom deras sociala konton. De kan också använda sociala ingenjörstekniker på deras vänner och familjemedlemmar för att samla in djupare information. Detta ger dem tillgång till information som målets identitet, arbetsinformation eller till och med nyliga aktiviteter. De kan sedan använda RAG för att ge LLM den kontext som behövs, vilket gör deras tillvägagångssätt otroligt personliga och legitima.

Syntetisk ljudgenerering

Plattformar som Resemble AI och Lyrebird är ledande inom skapandet av högt realistiska AI-genererade röster. Dessa teknologier kan producera personliga, mänskliga ljud, som kan användas i olika applikationer, från virtuella assistenter till automatiserad kundservice och innehållsskapande. Företag som ElevenLabs driver gränserna ytterligare genom att möjliggöra för användare att skapa syntetiska röster som kan replikera deras egna, vilket möjliggör en ny nivå av personanpassning och engagemang i digitala interaktioner.

Syntetisk videogenerering

Företag som Synthesia visar redan potentialen för att skapa realistiskt videoinnehåll med AI-genererade avatarer. Under de kommande åren kan denna teknik tillåta bedragare att utge sig för att vara vänner eller familjemedlemmar eller skapa helt fiktiva personer för videokonferenser, vilket introducerar en tidigare omöjlig nivå av fysisk realism i bedrägeriet.

AI-läppsynkronisering

Startups som Sync Labs utvecklar avancerad läppsynkroniserings-teknik som kan matcha genererat ljud till videofootage. Detta kan användas för att skapa högt övertygande deepfake-videor av historiska figurer, politiker, kändisar och praktiskt taget alla andra, vilket ytterligare suddar ut gränsen mellan verklighet och bedrägeri.

Kombinationen av dessa teknologier målar en ganska oroande bild. Föreställ er ett bedrägerisamtal där AI kan anpassa sitt samtal i realtid, beväpnad med personlig information om målet, och till och med gå över till en videokonferens med en tydligen riktig person vars läppar rör sig i perfekt synk med den genererade rösten. Potentialen för bedrägeri är verkligen enorm.

Behovet av förbättrade säkerhetsåtgärder

Medan dessa AI-drivna bedrägerier blir alltmer sofistikerade, måste metoder för att verifiera identitet och äkthet hålla jämna steg med AI-utvecklingen. Det kommer att krävas regulatoriska samt teknologiska framsteg för att hålla den digitala världen säker.

Regulatoriska förbättringar

Strängare dataskyddslagar: Genomförandet av strängare dataskyddslagar skulle begränsa mängden personlig information som är tillgänglig för bedragare att utnyttja. Dessa lagar kunde inkludera strängare krav för datainsamling, förbättrade användar-samtyckesprotokoll och strängare straff för dataintrång.

Privat moln för de kraftfullaste AI-modellerna: Regleringar kunde kräva att de kraftfullaste AI-modellerna värdas på privata, säkra molninfrastrukturer snarare än att göras öppet tillgängliga. Detta skulle begränsa tillgången till de mest avancerade teknologierna, vilket gör det svårare för skurkar att använda dem för bedrägerier. (t.ex. https://security.apple.com/blog/private-cloud-compute/)

Internationellt samarbete om AI-regleringar: Med tanke på den globala naturen av AI-teknologi, kunde internationellt samarbete om regulatoriska standarder vara fördelaktigt. Att etablera en global kropp som ansvarar för att skapa och verkställa internationella AI-regleringar kunde hjälpa till att hantera gränsöverskridande AI-relaterade brott.

Allmänna medvetandekampanjer: Regeringar och regulatoriska organ borde investera i allmänna medvetandekampanjer för att utbilda medborgare om de potentiella riskerna med AI-bedrägerier och hur man skyddar sig. Medvetenhet är ett kritiskt första steg i att ge individer och organisationer möjlighet att implementera nödvändiga säkerhetsåtgärder.

Nuvarande AI-regleringar är otillräckliga för att förhindra bedrägerier, och utmaningen för framtida reglering försvåras av den öppna karaktären hos många kraftfulla teknologier. Denna öppenhet tillåter vem som helst att komma åt och modifiera dessa teknologier för sina egna syften. Som ett resultat, tillsammans med starkare regleringar, behövs framsteg inom säkerhetsteknologier.

Syntetisk dataupptäckt

Syntetisk ljudupptäckt: När bedragare använder AI, måste också våra försvar. Företag som Pindrop utvecklar AI-drivna system som kan upptäcka syntetiskt ljud i realtid under telefonsamtal. Deras teknik analyserar över 1 300 funktioner i ett samtals ljud för att avgöra om det kommer från en riktig person eller ett sofistikerat AI-system.

Syntetisk videodetektering: Syntetisk videodetektering: Liksom ljud kan manipuleras av AI, kan också video, vilket utgör betydande hot i form av deepfakes och annat syntetiskt videoinnehåll. Företag som Deepware leder utvecklingen av teknologier för att upptäcka syntetiskt video. Deepwares plattform använder avancerade maskinlärningsalgoritmer för att analysera subtila inkonsekvenser i video-data, såsom onaturliga rörelser, oregelbundna belysningar och pixelfel som ofta finns i AI-genererat innehåll. Genom att identifiera dessa diskrepanser kan Deepwares teknik avgöra om en video är äkta eller har manipulerats, vilket hjälper till att skydda individer och organisationer från att bli lurade av sofistikerade video-baserade bedrägerier och desinformation-kampanjer.

Identifieringsautentiseringsframsteg

Det finns olika sätt som utvecklas för att bekräfta en användares identitet och en eller flera av dessa kommer att bli mainstream under de kommande åren för att göra internet säkrare.

Tvåstegsautentisering för fjärrsamtal: Tvåfaktorsautentisering (2FA) förblir en grundläggande komponent i säker kommunikation. Under denna metod skulle varje telefonsamtal eller e-post utlösa ett textmeddelande med en unik verifieringskod, liknande nuvarande e-postregistrering. Även om 2FA är effektiv för grundläggande autentisering, kan dess begränsningar inte förlita sig på alla sammanhang, vilket kräver utvecklingen av mer avancerade metoder för att säkerställa omfattande internet-säkerhet som kan fungera i bakgrunden.

Beteende-baserad multifaktorautentisering: Utanför att bara verifiera identitet i början av ett samtal, kan framtida säkerhetssystem kontinuerligt analysera beteende under en interaktion. Företag som BioCatch använder beteendebiometri för att skapa användarprofiler baserat på hur individer interagerar med sina enheter. Denna teknik kan upptäcka avvikelser i beteende som kan indikera att en bedragare använder stulen information, även om de har passerat initiala autentiseringskontroller.

Biometrisk autentisering: Företag som Onfido är i framkant av biometrisk verifieringsteknologi, som erbjuder AI-drivna identitetsverifieringsverktyg som kan upptäcka sofistikerade deepfakes och andra former av identitetsbedrägeri. Deras system använder en kombination av dokumentverifiering och biometrisk analys för att säkerställa att personen på andra sidan av ett samtal eller videokonferens verkligen är den de påstår sig vara.

Avancerad kunskapsbaserad autentisering: Utöver enkla säkerhetsfrågor, kan framtida autentiseringssystem inkorporera dynamiska, AI-genererade frågor baserade på en användares digitala fotavtryck och nyliga aktiviteter. Till exempel, Prove, ett företag som specialiserar sig på telefoncentrerad identitet, utvecklar lösningar som utnyttjar telefonintelligens och beteendeanalys för att verifiera identiteter. Deras teknik kan analysera mönster i hur en person använder sin enhet för att skapa en unik “identitetssignatur” som är betydligt svårare för bedragare att replikera.

Blockkedje-baserad identitetsverifiering: Blockkedjeteknologi erbjuder en decentraliserad och oföränderlig metod för identitetsverifiering. Företag som Civic banar väg för blockkedje-baserade identitetsverifieringssystem som tillåter användare att kontrollera sin personliga information samtidigt som de tillhandahåller säker autentisering. Dessa system skapar en verifierbar, oföränderlig post om en persons identitet, perfekt för att hantera högrisktransaktioner.

Slutsats

Konvergensen av LLM, RAG, syntetisk ljudgenerering, syntetisk videogenerering och läppsynkroniseringsteknologier är något av en tvåeggad svärd. Medan dessa framsteg har enorm potential för positiva tillämpningar, utgör de också betydande risker när de används av bedragare.

Denna pågående kapprustning mellan säkerhetsexperter och cyberkriminella understryker behovet av kontinuerlig innovation och vaksamhet inom området digital säkerhet. Vi kan arbeta för att utnyttja fördelarna med dessa kraftfulla verktyg samtidigt som vi mildrar deras potential för skada, endast genom att erkänna och förbereda oss för dessa risker.

Omfattande reglering, utbildning om dessa nya former av bedrägerier, investeringar i avancerade säkerhetsåtgärder och kanske mest viktigt, en hälsosam dos av skepticism från var och en av oss när vi interagerar med okända enheter online eller via telefon, kommer att vara avgörande för att navigera i detta nya landskap.

Rishab Mehra är CTO och medgrundare av Pinnacle, ett banbrytande AI-startupföretag inom området Mental Prestanda. Med en djup bakgrund inom datorseende och maskinlärning bringar Rishab en stor mängd erfarenhet till området artificiell intelligens.

Rishabs karriär inkluderar omfattande forskning inom datorseende för hälsovård vid Stanford University under ledning av den kända AI-experten Fei-Fei Li. Hans arbete har publicerats i prestigefyllda tidskrifter som Nature och NeurIPS. Innan han grundade Pinnacle, ledde Rishab utvecklingen av funktioner för Apple Intelligence och On-device Machine Learning på Apple, där han ansökte om över 20 patent.

En Stanford-utexaminerad med en hedersgrad i datavetenskap, har Rishab framgångsrikt samlat in en för-seed-finansieringsrunda för Pinnacle Intelligence.