Tankeledere
Den Virkelige Fare For Sprogmodeller: AI-Drevne Svindel
Forestil dig dette: Du er på arbejde, fokuseret på en stram deadline, når du modtager et opkald fra, hvad der ser ud til at være din mors telefonnummer. Stemmen i den anden ende er ubestrideligt hendes, rolig og kærlig, men med en usædvanlig antydning af urgency. Hun fortæller dig, at hun er kommet i alvorlige problemer, mens hun er på ferie i Paris, og har brug for din økonomiske hjælp med det samme for at løse tingene. Du ved, hun er i Paris, og detaljerne, hun giver, ned til navnet på hendes hotel, gør opkaldet endnu mere overbevisende. Uden at tænke en gang om, overfører du pengene, blot for at opdage senere, at din mor aldrig lavde det opkald; det var et avanceret AI-system, der perfekt efterlignede hendes stemme og fabrikerede en detaljeret scenario. Gysninger løber ned ad ryggen, da du realiserer, hvad der lige er sket.
Dette scenario, der tidligere var ren science fiction, er nu en fremvoksende realitet. Morgenen for AI-teknologier som store sprogmodeller (LLM’er) har bragt utrolige fremskridt. Der er dog en betydelig trussel på horisonten: AI-drevne svindel. Potentialet for sofistikerede svindel, der er drevet af kunstig intelligens, er en helt ny trussel på horisonten for teknologisk fremgang. Mens telefonsvindel har været en bekymring siden opfindelsen af telefonen, har den brede integration af store sprogmodeller (LLM’er) i hver enkelt facet af digital kommunikation dramatisk øget indsatsen. Mens vi omfavner AI’s potentiale, er det afgørende, at vi også styrker vores forsvar mod disse stadig mere sofistikerede trusler.
Nuværende Landskab For Telefonsvindel
Kriminelle har forsøgt at bedrage uvidende individer til at overføre penge eller afsløre følsomme oplysninger i årevis, men på trods af, at telefonsvindel er almindeligt, er mange af disse svindel relativt usofistikerede og afhænger af menneskelige script-læsere. Alligevel, selv med denne begrænsning, er telefonsvindel stadig en lukrativ kriminel virksomhed.
Ifølge US Federal Trade Commission, tabte amerikanerne alene over 8,8 milliarder dollars til svindel i 2022, hvoraf en betydelig del kan tilskrives telefonsvindel, hvilket betyder, at selv i deres nuværende, mindre avancerede form, virker mange af disse taktikker stadig på sårbare individer. Hvad sker der, når de udvikler sig?
AI-Drevne Svindels Fremtid
Landskabet for telefonsvindel er på vej til at ændre sig dramatisk med fremkomsten af flere nøgleteknologier:
Store Sprogmodeller (LLM’er)
Disse AI-systemer kan generere menneske-lignende tekst og engagere i naturlige samtaler. Når de anvendes på svindel, kan LLM’er skabe meget overbevisende og adaptive manuskripter, hvilket gør det meget sværere for potentielle ofre at identificere svindel.
Retrieval-Augmented Generation (RAG)
Denne teknologi giver LLM-systemer mulighed for at få adgang til og udnytte enorme mængder af information i realtid. Svindlere kan opbygge en profil af en person baseret på deres offentligt tilgængelige information, såsom deres sociale konti. De kan også bruge sociale ingeniørteknikker på deres venner og familie til at samle dybere information. Dette giver dem adgang til information som målsættets identitet, arbejdsinformation eller endda seneste aktiviteter. De kan derefter bruge RAG til at give LLM’er den kontekst, der er nødvendig, og gøre deres tilgange synes utrolig personlige og legitime.
Syntetisk Audio-Generering
Platforme som Resemble AI og Lyrebird er førende inden for skabelse af meget realistiske AI-genererede stemmer. Disse teknologier er i stand til at producere personlige, menneske-lignende lyd, som kan anvendes i forskellige applikationer, fra virtuelle assistenter til automatiseret kundeservice og indholdsskabelse. Virksomheder som ElevenLabs presses grænserne yderligere ved at give brugerne mulighed for at skabe syntetiske stemmer, der kan efterligne deres egen, hvilket giver en ny niveau af personliggørelse og engagement i digitale interaktioner.
Syntetisk Video-Generering
Virksomheder som Synthesia demonstrerer allerede potentialet for at skabe realistisk videoindhold med AI-genererede avatarer. I de kommende år kan denne teknologi give svindlere mulighed for at efterligne venner eller familiemedlemmer eller skabe helt fiktive personer til videoopkald, hvilket introducerer et tidligere umuligt niveau af fysisk realisme i svindel.
AI-Lip-Syncing
Startups som Sync Labs udvikler avanceret lip-sync-teknologi, der kan matche genereret audio til videooptagelser. Dette kan anvendes til at skabe meget overbevisende deep-fake-videoer af historiske figurer, politikere, berømtheder og stort set alle andre, hvilket yderligere udvisker grænsen mellem virkelighed og bedrag.
Kombinationen af disse teknologier tegner et ret bekymrende billede. Forestil dig et svindelopkald, hvor AI kan tilpasse sin samtale i realtid, bevæbnet med personlige oplysninger om målsættet, og endda gå over til en videoopkald med en tilsyneladende rigtig person, hvis læber bevæger sig i perfekt sync med den genererede stemme. Potentialet for bedrag er virkelig enormt.
Behov For Forbedret Sikkerhedsforanstaltninger
Da disse AI-drevne svindel bliver mere sofistikerede, skal metoderne til at verificere identitet og ægthed løbe med AI-fremgangen. Der skal være både regulativ og teknologisk fremgang for at holde den online-verden sikker.
Regulativ Forbedring
Strængere Data Beskyttelseslove: Implementering af mere strenge data beskyttelseslove ville begrænse mængden af personlige oplysninger, der er tilgængelige for svindlere at udnytte. Disse love kunne inkludere strengere krav til dataindsamling, forbedret bruger-samtykke-protokoller og strengere straffe for data-brud.
Privat Cloud For De Mest Avancerede AI-Modeller: Reguleringer kunne kræve, at de mest avancerede AI-modeller er placeret på private, sikre cloud-infrastrukturer i stedet for at være åbent tilgængelige. Dette ville begrænse adgangen til de mest avancerede teknologier, hvilket gør det sværere for maliciøse aktører at bruge dem til svindel. (f.eks. https://security.apple.com/blog/private-cloud-compute/)
International Samarbejde Om AI-Regulering: Givet den globale natur af AI-teknologi kunne internationalt samarbejde om regulativ standard være nyttigt. Etablering af en global organ, der er ansvarlig for at skabe og gennemføre internationale AI-reguleringer, kunne hjælpe med at tackle grænseoverskridende AI-relaterede forbrydelser.
Offentlig Bevidstheds-Kampagner: Regeringer og regulativ organer bør investere i offentlig bevidsthedskampagner for at uddanne borgere om de potentielle risici ved AI-svindel og hvordan de kan beskytte sig selv. Bevidsthed er en kritisk første skridt i at give individer og organisationer mulighed for at implementere nødvendige sikkerhedsforanstaltninger.
Nuværende AI-reguleringer er utilstrækkelige til at forhindre svindel, og udfordringen for fremtidig regulering er forkomplet af den åbne natur af mange kraftfulde teknologier. Denne åbne natur giver mulighed for, at alle kan få adgang til og ændre disse teknologier for deres egne formål. Derfor, sammen med stærkere regulering, er der også behov for fremskridt i sikkerhedsteknologier.
Syntetisk Data-Detektion
Syntetisk Audio-Detektion: Da svindlere anvender AI, skal vores forsvar også. Virksomheder som Pindrop udvikler AI-drevne systemer, der kan detektere syntetisk audio i realtid under telefonopkald. Deres teknologi analyserer over 1.300 funktioner af et opkalds audio for at bestemme, om det kommer fra en rigtig person eller et sofistikeret AI-system.
Syntetisk Video-Detektion: Syntetisk Video-Detektion: Ligesom audio kan manipuleres af AI, kan video også manipuleres, hvilket udgør betydelige trusler i form af deepfakes og anden syntetisk videoindhold. Virksomheder som Deepware er førende i udviklingen af teknologier til at detektere syntetisk video. Deepwares platform bruger avancerede maskinlæringsalgoritmer til at analysere subtile inkonsistenser i video-data, såsom unaturlige bevægelser, uregelmæssig belysning og pixel-anomalier, der ofte er til stede i AI-genereret indhold. Ved at identificere disse afvigelser kan Deepwares teknologi bestemme, om en video er ægte eller har været manipuleret, hvilket hjælper med at beskytte individer og organisationer mod at blive bedraget af sofistikerede video-baserede svindel og desinformation-kampagner.
Identitets-Authentificerings-Fremgang
Der er forskellige måder under udvikling for at bekræfte en brugers identitet, og en eller flere af disse vil blive mainstream i de kommende år for at gøre internettet sikrere.
To-trins-authentificering for Fjern-Samtaler: To-faktor-authentificering (2FA) er stadig en grundlæggende komponent af sikker kommunikation. Under denne metode ville hvert telefonopkald eller e-mail udløse en tekstbesked med en unik verificeringskode, ligesom nuværende e-mail-tilmeldinger. Selvom 2FA er effektiv til grundlæggende authentificering, kan den ikke afhængigt på i alle sammenhænge, hvilket nødvendiggør udviklingen af mere avancerede metoder til at sikre omfattende internetsikkerhed, der kan fungere i baggrunden.
Adfærd-baseret Multi-Faktor-Authentificering: Ud over at verificere identitet i starten af et opkald, kan fremtidens sikkerhedssystemer kontinuerligt analysere adfærd under hele interaktionen. Virksomheder som BioCatch bruger adfærds-biometri til at skabe brugerprofiler baseret på, hvordan individer interagerer med deres enheder. Denne teknologi kan detektere afvigelser i adfærd, der måske indikerer, at en svindler bruger stjålet information, selvom de har bestået de første authentificeringskontroller.
Biometrisk-Baseret-Authentificering: Virksomheder som Onfido er førende inden for biometrisk verificeringsteknologi, der tilbyder AI-drevne identitets-verificeringsværktøjer, der kan spotte sofistikerede deepfakes og andre former for identitets-svindel. Deres system bruger en kombination af dokument-verificering og biometrisk analyse til at sikre, at personen på den anden side af et opkald eller video-samtale virkelig er, hvem de påstår at være.
Avanceret Viden-Baseret-Authentificering: Ud over simple sikkerheds-spørgsmål kan fremtidens authentificeringssystemer inkorporere dynamiske, AI-genererede spørgsmål baseret på en brugers digitale fodaftryk og seneste aktiviteter. For eksempel er Prove, en virksomhed, der specialiserer sig i telefon-centrisk identitet, udvikler løsninger, der udnytter telefon-intelligens og adfærds-analytik til at verificere identiteter. Deres teknologi kan analysere mønstre i, hvordan en person bruger deres enhed, til at skabe en unik “identitets-signatur”, der er betydeligt sværere for svindlere at replikere.
Blockchain-Baseret-Identitets-Verificerings-Authentificering: Blockchain-teknologi tilbyder en decentral og uændret metode til identitets-verificering. Virksomheder som Civic er pionerer inden for blockchain-baserede identitets-verificeringssystemer, der giver brugerne mulighed for at kontrollere deres personlige oplysninger, mens de giver sikker authentificering. Disse systemer skaber en verificerbar, uændret optegnelse af en persons identitet, der er ideel til at styre høj-risiko-transaktioner.
Konklusion
Konvergen af LLM’er, RAG, syntetisk audio-generering, syntetisk video-generering og lip-syncing-teknologier er en slags dobbeltægget sværd. Mens disse fremskridt har enormt potentiale for positive anvendelser, udgør de også betydelige risici, når de anvendes af svindlere.
Denne pågående kapløb mellem sikkerhedseksperter og cyberkriminelle understreger behovet for kontinuerlig innovation og vagtsomhed på området for digital sikkerhed. Vi kan arbejde mod at udnytte fordelene ved disse kraftfulde værktøjer, mens vi minimiserer deres potentiale for skade, kun ved at anerkende og forberede os på disse risici.
Omfattende regulering, uddannelse om disse nye former for svindel, investering i avancerede sikkerhedsforanstaltninger og måske mest vigtigt, en sund portion af skepsis fra hver og en af os, når vi interagerer med ukendte enheder online eller over telefonen, vil være afgørende for at navigere i dette nye landskab.












