Seguretat cibernètica
Deepfaked Voice va habilitar un robatori bancari de 35 milions de dòlars el 2020

Una investigació sobre l'estafa de 35 milions de dòlars d'un banc dels Emirats Àrabs Units el gener del 2020 ha trobat que la tecnologia de veu deepfake es va utilitzar per imitar un director d'empresa conegut per un director de sucursal bancària, que després va autoritzar les transaccions.
El crim va tenir lloc el 15 de gener de l'any passat, i es descriu en a sol · licitar (PDF) dels Emirats Àrabs Units a les autoritats estatals nord-americanes per ajudar-los a rastrejar una part dels fons desviats que es van enviar als Estats Units.
La sol·licitud indica que el gerent de la sucursal d'un banc víctima sense nom als Emirats Àrabs Units va rebre una trucada telefònica d'una veu coneguda, que, juntament amb els correus electrònics d'un advocat anomenat Martin Zelner, van convèncer el gerent de desemborsar els fons, que aparentment estaven destinats al adquisició d'una empresa.
La sol · licitar estats:
"Segons les autoritats dels Emirats, el 15 de gener de 2020, el director de la sucursal de la Victim Company va rebre una trucada telefònica que deia ser de la seu de l'empresa. La persona que trucava sonava com el director de l'empresa, de manera que el director de la sucursal creia que la trucada era legítima.
"El director de la sucursal també va rebre diversos correus electrònics que creia que eren del director relacionats amb la trucada telefònica. La persona que va trucar va dir al director de la sucursal per telèfon i correu electrònic que la Victim Company estava a punt d'adquirir una altra empresa i que un advocat anomenat Martin Zelner (Zelner) havia estat autoritzat per coordinar els procediments per a l'adquisició".
Aleshores, el director de la sucursal va rebre els correus electrònics de Zelner, juntament amb una carta d'autorització del (suposat) director, la veu del qual era familiar per a la víctima.
S'ha identificat un frau de veu deepfake
Aleshores, els investigadors dels Emirats van establir que la tecnologia de clonació de veu deepfake s'havia utilitzat per imitar la veu del director de l'empresa:
"La investigació dels Emirats va revelar que els acusats havien utilitzat la tecnologia de "veu profunda" per simular la veu del director. El gener de 2020, es van transferir fons de la Victim Company a diversos comptes bancaris d'altres països en un complex esquema que implicava almenys 17 acusats coneguts i desconeguts. Les autoritats emiratís van rastrejar el moviment dels diners a través de nombrosos comptes i van identificar dues transaccions als Estats Units.
"El 22 de gener de 2020, es van enviar dues transferències de 199,987.75 USD i 215,985.75 USD de dos dels demandats als números de compte del Centennial Bank, xxxxx7682 i xxxxx7885, respectivament, situats als Estats Units".
No hi ha més detalls disponibles sobre el crim, que és només la segona incidència coneguda de frau financer deepfake basat en veu. El primer va tenir lloc nou mesos abans, el març del 2020, quan un executiu d'una empresa energètica del Regne Unit va ser arengat per telèfon pel que semblava el cap de l'empleat, exigint la transferència urgent de 220,000 € (243,000 dòlars), que l'empleat va fer. després es va transaccionar.
Desenvolupament de la clonació de veu
La clonació de veu deepfake implica l'entrenament d'un model d'aprenentatge automàtic en centenars o milers de mostres de la veu "destinada" (la veu que s'imitarà). La coincidència més precisa es pot obtenir entrenant la veu objectiu directament contra la veu de la persona que parlarà en l'escenari proposat, tot i que el model estarà "sobreadaptat" a la persona que s'està fent passar per l'objectiu.
La comunitat en línia legítima més activa per als desenvolupadors de clonació de veu és la Falsificacions d'àudio Servidor de Discord, que inclou fòrums per a molts algorismes de clonació de veu deepfake, com ara el de Google Tacotron-2, Talknet, Tacotron endavant, Coqui-ai-TTS i Glow-TTS, Entre d'altres.
Deepfakes en temps real
Com que una conversa telefònica és necessàriament interactiva, el frau de clonació de veu no es pot fer raonablement amb clips de veu d'alta qualitat "al forn" i, en ambdós casos de frau de clonació de veu, podem suposar raonablement que l'orador està utilitzant un deepfake en directe en temps real. marc.
Els deepfake en temps real s'han centrat últimament a causa de l'arribada de DeepFaceLive, una implementació en temps real del popular paquet deepfake DeepFaceLab, que pot superposar celebritats o altres identitats. en imatges de càmera web en directe. Tot i que els usuaris d'Audio Fakes Discord i de DeepFaceLab Discord estan molt interessats a combinar les dues tecnologies en una única arquitectura deepfake de vídeo + veu en directe, encara no ha sorgit públicament cap producte d'aquest tipus.