Connect with us

Atacul cu voce Deepfaked care a permis o spălătorie de bani de 35 de milioane de dolari la o bancă în 2020

Securitate cibernetică

Atacul cu voce Deepfaked care a permis o spălătorie de bani de 35 de milioane de dolari la o bancă în 2020

mm

O investigație referitoare la fraudarea a 35 de milioane de dolari americani de la o bancă din Emiratele Arabe Unite în ianuarie 2020 a descoperit că tehnologia de voce deepfake a fost utilizată pentru a imita vocea unui director de companie cunoscut de un manager de sucursală a băncii, care a autorizat apoi tranzacțiile.

Crimele au avut loc pe 15 ianuarie a anului trecut și sunt prezentate într-o cerere (PDF) a Emiratelor Arabe Unite către autoritățile statelor americane pentru ajutor în urmărirea unei părți a fondurilor drenate, care au fost trimise în Statele Unite.

Cererea afirmă că managerul sucursalei unei bănci victime din Emiratele Arabe Unite a primit un apel telefonic de la o voce familiară, care, împreună cu e-mailurile însoțitoare de la un avocat pe nume Martin Zelner, l-a convins pe manager să dispună fondurile, care erau aparent destinate achiziționării unei companii.

Cererea afirmă:

‘Conform autorităților emirateze, la 15 ianuarie 2020, managerul sucursalei Companiei Victime a primit un apel telefonic care pretindea a fi de la sediul central al companiei. Apelantul suna ca Directorul companiei, așa că managerul sucursalei a crezut că apelul era legitim.

‘Managerul sucursalei a primit, de asemenea, mai multe e-mailuri pe care le-a crezut a fi de la Director, legate de apelul telefonic. Apelantul i-a spus managerului sucursalei, atât prin telefon, cât și prin e-mail, că Compania Victimă urma să achiziționeze o altă companie și că un avocat pe nume Martin Zelner (Zelner) fusese autorizat să coordoneze procedurile de achiziție.’

Managerul sucursalei a primit apoi e-mailurile de la Zelner, împreună cu o scrisoare de autorizare de la (presupusul) Director, a cărui voce îi era familiară victimei.

Frauda cu voce Deepfake identificată

Investigatorii emiratieni au stabilit apoi că tehnologia de voce deepfake a fost utilizată pentru a imita vocea directorului companiei:

‘Investigația emiratiană a arătat că inculpații au utilizat tehnologia “deep voice” pentru a simula vocea Directorului. În ianuarie 2020, fonduri au fost transferate de la Compania Victimă către mai multe conturi bancare din alte țări, într-un schema complexă care implică cel puțin 17 inculpați cunoscuți și necunoscuți. Autoritățile emirateze au urmărit mișcarea banilor prin numeroase conturi și au identificat două tranzacții către Statele Unite.

‘La 22 ianuarie 2020, două transferuri de 199.987,75 USD și 215.985,75 USD au fost trimise de la doi dintre inculpați către numerele de cont ale Băncii Centennial, xxxxx7682 și xxxxx7885, respectiv, situate în Statele Unite.’

Nu sunt disponibile detalii suplimentare cu privire la infracțiune, care este doar a doua instanță cunoscută de fraudă financiară bazată pe voce deepfake. Prima a avut loc cu nouă luni mai devreme, în martie 2020, când un director executiv al unei companii energetice din Regatul Unit a fost hărțuit la telefon de ceea ce suna ca șeful său, cerând transferul urgent de 220.000 de euro (243.000 de dolari), pe care angajatul l-a efectuat.

Dezvoltarea clonării vocii

Clonarea vocii deepfake implică antrenarea unui model de învățare automată pe sute sau mii de mostre ale “vocii țintă” (vocea care va fi imitată). Cea mai exactă potrivire poate fi obținută prin antrenarea vocii țintă direct împotriva vocii persoanei care va vorbi în scenariul propus, deși modelul va fi “supraajustat” pentru persoana care va imita vocea țintă.

Comunitatea online legitimă cea mai activă pentru dezvoltatorii de clone de voce este serverul Discord Audio Fakes, care prezintă forumuri pentru numeroase algoritmi de clonare a vocii deepfake, cum ar fi Tacotron-2 de la Google, Talknet, ForwardTacotron, Coqui-ai-TTS și Glow-TTS, printre altele.

Deepfakes în timp real

Deoarece o conversație telefonică este, prin definiție, interactivă, frauda de clonare a vocii nu poate fi realizată în mod rezonabil prin clipuri de voce “prelucrate” de înaltă calitate, și în ambele cazuri de fraudă de clonare a vocii putem presupune în mod rezonabil că vorbitorul utilizează un cadru deepfake în timp real.

Deepfakes în timp real au intrat în atenție recent datorită apariției DeepFaceLive, o implementare în timp real a pachetului de deepfake popular DeepFaceLab, care poate suprapune identități de celebrități sau alte identități pe imagini live de webcam. Deși utilizatorii de la Audio Fakes Discord și DeepFaceLab Discord sunt foarte interesați de combinarea celor două tehnologii într-o singură arhitectură de deepfake video+voce în timp real, nu a apărut încă niciun produs public.

Scriitor pe machine learning, specialist în domeniul sintezei de imagini umane. Foster head of research content la Metaphysic.ai.