Cyberbeveiliging
Deepfaked Stem Met $35 Miljoen Bankroof in 2020 Mogelijk

Een onderzoek naar de oplichting van $35 miljoen USD van een bank in de Verenigde Arabische Emiraten in januari 2020 heeft aangetoond dat deepfake-stemtechnologie werd gebruikt om een bedrijfsdirecteur te imiteren die bekend was bij een bankfiliaalmanager, die vervolgens de transacties autoriseerde.
De misdaad vond plaats op 15 januari van het voorgaande jaar en wordt beschreven in een verzoek (PDF) van de VAE aan de Amerikaanse autoriteiten om hulp bij het opsporen van een deel van de afgetapte fondsen die naar de Verenigde Staten waren gestuurd.
Het verzoek vermeldt dat de filiaalmanager van een ongenoemde slachtofferbank in de VAE een telefoontje kreeg van een vertrouwde stem, die, samen met bijbehorende e-mails van een advocaat genaamd Martin Zelner, de manager ervan overtuigde om de fondsen uit te betalen, die blijkbaar bedoeld waren voor de overname van een bedrijf.
Het verzoek vermeldt:
‘Volgens de Emirati autoriteiten ontving de filiaalmanager van het slachtofferbedrijf op 15 januari 2020 een telefoontje dat beweerde afkomstig te zijn van het hoofdkantoor van het bedrijf. De beller klonk als de directeur van het bedrijf, dus de filiaalmanager geloofde dat het telefoontje legitiem was.
‘De filiaalmanager ontving ook meerdere e-mails die hij geloofde afkomstig te zijn van de directeur en die verband hielden met het telefoontje. De beller vertelde de filiaalmanager per telefoon en e-mail dat het slachtofferbedrijf op het punt stond een ander bedrijf over te nemen en dat een advocaat genaamd Martin Zelner (Zelner) was geautoriseerd om de procedures voor de overname te coördineren.’
De filiaalmanager ontving vervolgens de e-mails van Zelner, samen met een autorisatiebrief van de (vermeende) directeur, wiens stem hem vertrouwd was.
Deepfake-stemfraude Geïdentificeerd
Emirati onderzoekers stelden vervolgens vast dat deepfake-stemkloon-technologie was gebruikt om de stem van de bedrijfsdirecteur te imiteren:
‘Het Emirati onderzoek onthulde dat de verdachten “deep voice”-technologie hadden gebruikt om de stem van de directeur te simuleren. In januari 2020 werden fondsen overgemaakt van het slachtofferbedrijf naar verschillende bankrekeningen in andere landen in een complexe scheme met ten minste 17 bekende en onbekende verdachten. De Emirati autoriteiten volgden de beweging van het geld via meerdere rekeningen en identificeerden twee transacties naar de Verenigde Staten.
‘Op 22 januari 2020 werden twee overmakingen van USD 199.987,75 en USD 215.985,75 gestuurd van twee van de verdachten naar rekeningnummers xxxxx7682 en xxxxx7885 van Centennial Bank, respectievelijk gevestigd in de Verenigde Staten.’
Er zijn geen verdere details beschikbaar over de misdaad, die alleen de tweede bekende incidentie is van stemgebaseerde deepfake-financiële fraude. De eerste vond negen maanden eerder plaats, in maart 2020, toen een directeur van een Britse energiemaatschappij werd lastiggevallen door iemand die klonk als zijn baas, die eiste dat hij €220.000 ($243.000) overmaakte, wat de werknemer toen overmaakte.
Stemkloonontwikkeling
Deepfake-stemklonen houdt in dat een machine learning-model wordt getraind op honderden of duizenden voorbeelden van de ‘doel’-stem (de stem die wordt nagebootst). De meest nauwkeurige overeenkomst kan worden verkregen door de doelstem rechtstreeks te trainen tegen de stem van de persoon die in de voorgestelde scenario zal spreken, hoewel het model ‘overfit’ zal zijn voor de persoon die de doelstem zal imiteren.
De meest actieve legitieme online gemeenschap voor stemkloonontwikkelaars is de Audio Fakes Discord-server, die forums heeft voor veel deepfake-stemkloon-algoritmen zoals Google’s Tacotron-2, Talknet, ForwardTacotron, Coqui-ai-TTS en Glow-TTS, onder anderen.
Real-Time Deepfakes
Aangezien een telefoongesprek noodzakelijkerwijs interactief is, kan stemkloonfraude redelijkerwijs niet worden geëffectueerd door ‘gebakken’ hoge kwaliteit stemclips, en in beide gevallen van stemkloonfraude kunnen we redelijkerwijs aannemen dat de spreker een live, real-time deepfake-framework gebruikt.
Real-time deepfakes zijn onlangs in de schijnwerpers komen te staan vanwege de komst van DeepFaceLive, een real-time implementatie van de populaire deepfake-pakket DeepFaceLab, die celebrity’s of andere identiteiten op live webcambeelden kan projecteren. Hoewel gebruikers op de Audio Fakes Discord en de DeepFaceLab Discord geïnteresseerd zijn in het combineren van de twee technologieën in een enkele video+stem live deepfake-architectuur, is nog geen dergelijk product openbaar gemaakt.










