Refresh

This website www.unite.ai/ro/deepfaked-voice-enabled-35-million-bank-heist-in-2020/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

Conectează-te cu noi

Securitate cibernetică

Deepfaked Voice a permis un jaf bancar de 35 de milioane de dolari în 2020

mm
Actualizat on

O investigație privind fraudarea a 35 de milioane USD de la o bancă din Emiratele Arabe Unite în ianuarie 2020 a constatat că tehnologia de voce deepfake a fost folosită pentru a imita un director de companie cunoscut de un director de sucursală a băncii, care apoi a autorizat tranzacțiile.

Crima a avut loc la 15 ianuarie a anului trecut și este conturată în a solicita (PDF) de către Emiratele Arabe Unite către autoritățile de stat americane pentru ajutor în urmărirea unei părți din fondurile sifonate care au fost trimise în Statele Unite.

În cerere se precizează că directorul sucursalei unei bănci victime fără nume din Emiratele Arabe Unite a primit un apel telefonic de la o voce cunoscută, care, împreună cu e-mailurile însoțitoare de la un avocat pe nume Martin Zelner, l-au convins pe manager să plătească fondurile, care se pare că erau destinate achizitia unei firme.

solicita prevede:

„Potrivit autorităților emirate, pe 15 ianuarie 2020, directorul de sucursală al Companiei Victime a primit un apel telefonic care pretindea a fi de la sediul companiei. Apelantul suna ca directorul companiei, așa că directorul sucursalei a considerat că apelul este legitim.

„Directorul sucursalei a primit, de asemenea, mai multe e-mailuri despre care credea că erau de la director, legate de apelul telefonic. Apelantul i-a spus directorului sucursalei prin telefon și e-mail că Compania Victime era pe cale să achiziționeze o altă companie și că un avocat pe nume Martin Zelner (Zelner) a fost autorizat să coordoneze procedurile pentru achiziție”.

Directorul sucursalei a primit apoi e-mailurile de la Zelner, împreună cu o scrisoare de autorizare de la (presupusul) director, a cărui voce îi era familiară victimei.

Identificată fraudă vocală falsă

Anchetatorii emirati au stabilit apoi că tehnologia de clonare a vocii deepfake a fost folosită pentru a imita vocea directorului companiei:

„Ancheta din Emirate a arătat că inculpații au folosit tehnologia „voce profundă” pentru a simula vocea directorului. În ianuarie 2020, fondurile au fost transferate de la Compania Victime în mai multe conturi bancare din alte țări într-o schemă complexă care a implicat cel puțin 17 inculpați cunoscuți și necunoscuți. Autoritățile emirate au urmărit mișcarea banilor prin numeroase conturi și au identificat două tranzacții către Statele Unite.

„La 22 ianuarie 2020, două transferuri în valoare de 199,987.75 USD și 215,985.75 USD au fost trimise de la doi dintre pârâți către numerele de cont Centennial Bank, xxxxx7682 și, respectiv, xxxxx7885, situate în Statele Unite.”

Nu sunt disponibile detalii suplimentare cu privire la crimă, care este doar a doua incidență cunoscută a fraudei financiare deepfake bazate pe voce. Prima a avut loc cu nouă luni mai devreme, în martie 2020, când un director de la o companie de energie din Marea Britanie a fost aranjat la telefon de ceea ce părea șeful angajatului, cerând transferul urgent de 220,000 de euro (243,000 de dolari), pe care angajatul. apoi tranzacționate.

Dezvoltarea clonării vocii

Clonarea vocii deepfake implică antrenarea unui model de învățare automată pe sute sau mii de mostre ale vocii „țintă” (vocea care va fi imitată). Cea mai precisă potrivire poate fi obținută prin antrenarea vocii țintă direct cu vocea persoanei care va vorbi în scenariul propus, deși modelul va fi „supraadaptat” la persoana care își va uzurpa identitatea țintei.

Cea mai activă comunitate online legitimă pentru dezvoltatorii de clonare a vocii este Falsuri audio Server Discord, care oferă forumuri pentru mulți algoritmi de clonare a vocii deepfake, cum ar fi Google Tacotron-2, Talknet, Înainte Tacotron, Coqui-ai-TTS si Glow-TTS, Printre altele.

Deepfakes în timp real

Deoarece o conversație telefonică este neapărat interactivă, frauda de clonare a vocii nu poate fi efectuată în mod rezonabil prin clipuri vocale „coapte” de înaltă calitate și, în ambele cazuri de fraudă a clonării vocii, putem presupune în mod rezonabil că vorbitorul folosește un deepfake live, în timp real. cadru.

Deepfake-urile în timp real au intrat în atenție în ultima vreme datorită apariției DeepFaceLive, o implementare în timp real a popularului pachet deepfake DeepFaceLab, care poate suprapune celebrități sau alte identități pe imagini live pe webcam. Deși utilizatorii de la Audio Fakes Discord și DeepFaceLab Discord sunt intens interesați de combinarea celor două tehnologii într-o singură arhitectură video+voce live deepfake, niciun astfel de produs nu a apărut până acum în mod public.

 

Scriitor pe machine learning, specialist în domeniul sintezei imaginilor umane. Fost șef de conținut de cercetare la Metaphysic.ai.
Site personal: martinanderson.ai
Contact: [e-mail protejat]
Twitter: @manders_ai

// 🔍 Elimină interogarea de căutare din URL