Cybersäkerhet
Deepfaked Röst Aktiverade $35 Miljoner Bankrån 2020

En utredning av bedrägeriet med $35 miljoner USD från en bank i Förenade Arabemiraten i januari 2020 har visat att deepfake-röstteknik användes för att imitera en företagsdirektör som var känd för en bankfilialchef, som sedan godkände transaktionerna.
Brottet ägde rum den 15 januari förra året och beskrivs i en begäran (PDF) från Förenade Arabemiraten till amerikanska myndigheter för hjälp med att spåra en del av de uttagna medlen som skickades till USA.
Begäran anger att filialchefen för en namnlös offerbank i Förenade Arabemiraten fick ett telefonsamtal från en bekant röst, som tillsammans med åtföljande e-postmeddelanden från en advokat vid namn Martin Zelner, övertygade chefen att utbetala medlen, som tydligen var avsedda för förvärv av ett företag.
Begäran anger:
‘Enligt emiratiska myndigheter fick den 15 januari 2020 offerföretagets filialchef ett telefonsamtal som påstod sig komma från företagets huvudkontor. Samtalaren lät som företagets direktör, så filialchefen trodde att samtalet var legitimt.
‘Filialchefen fick också flera e-postmeddelanden som han trodde kom från direktören och som var relaterade till telefonsamtalet. Samtalaren sa till filialchefen via telefon och e-post att offerföretaget skulle förvärva ett annat företag och att en advokat vid namn Martin Zelner (Zelner) hade fått i uppdrag att samordna procedurerna för förvärvet.’
Filialchefen fick sedan e-postmeddelanden från Zelner, tillsammans med ett bemyndigande från (påstådda) direktören, vars röst var bekant för offret.
Deepfake Röstbedrägeri Identifierat
Emiratiska utredare fastställde sedan att deepfake-röstklonningsteknik hade använts för att imitera företagsdirektörens röst:
‘Den emiratiska utredningen visade att de åtalade hade använt “deep voice”-teknik för att simulera direktörens röst. I januari 2020 överfördes medel från offerföretaget till flera bankkonton i andra länder i en komplex schema som involverade minst 17 kända och okända åtalade. Emiratiska myndigheter spårade pengarnas rörelse genom många konton och identifierade två transaktioner till USA.
‘Den 22 januari 2020 skickades två överföringar på 199 987,75 USD och 215 985,75 USD från två av de åtalade till Centennial Bank-kontonummer, xxxxx7682 och xxxxx7885, belägna i USA.’
Inga ytterligare uppgifter är tillgängliga om brottet, som endast är den andra kända incidenten med röstbaserat deepfake-finansiellt bedrägeri. Den första ägde rum nio månader tidigare, i mars 2020, när en chef på ett brittiskt energiföretag blev uppringd av vad som lät som chefens röst, som krävde en brådskande överföring av 220 000 euro (243 000 USD), som chefen då genomförde.
Röstkloning Utveckling
Deepfake-röstkloning innebär att en maskinlärningsmodell tränas på hundratals eller tusentals prover av “mål”-rösten (den röst som ska imiteras). Den mest exakta matchen kan erhållas genom att träna målrösten direkt mot den röst som ska användas i den föreslagna scenariot, även om modellen kommer att “överanpassas” till den person som ska imitera målrösten.
Den mest aktiva legitima online-gemenskapen för röstkloningsutvecklare är Audio Fakes Discord-servern, som har forum för många deepfake-röstkloningsalgoritmer som Google’s Tacotron-2, Talknet, ForwardTacotron, Coqui-ai-TTS och Glow-TTS, bland andra.
Real-Tids Deepfakes
Eftersom ett telefonsamtal nödvändigtvis är interaktivt, kan röstkloningsbedrägeri inte rimligen utföras med “baked” högkvalitativa röstklipp, och i båda fallen med röstkloningsbedrägeri kan vi rimligen anta att talaren använder en live, realtids deepfake-ram.
Realtidsdeepfakes har kommit i fokus nyligen på grund av tillkomsten av DeepFaceLive, en realtidsimplementering av den populära deepfake-paketet DeepFaceLab, som kan lägga på kändisar eller andra identiteter på live-webbkamerafootage. Även om användare på Audio Fakes Discord och DeepFaceLab Discord är intensivt intresserade av att kombinera de två teknologierna till en enda video+ röst live deepfake-arkitektur, har inget sådant produkt offentliggjorts ännu.










