Cyberbezpieczeństwo
Deepfaked Voice Enabled $35 Million Bank Heist in 2020

Śledztwo w sprawie oszustwa na kwotę 35 milionów dolarów amerykańskich z banku w Zjednoczonych Emiratach Arabskich w styczniu 2020 roku ujawniło, że technologia głosu deepfake została wykorzystana do naśladownictwa dyrektora firmy znanej menedżerowi oddziału banku, który następnie zaakceptował transakcje.
Przestępstwo miało miejsce 15 stycznia ubiegłego roku i jest opisane w wniosku (PDF) Zjednoczonych Emiratów Arabskich do amerykańskich władz stanowych o pomoc w śledzeniu części sfałszowanych funduszy, które zostały przesłane do Stanów Zjednoczonych.
Wnioskujący stwierdza, że menedżer oddziału nieznanego banku ofiary w Zjednoczonych Emiratach Arabskich otrzymał telefon od znajomej osoby, która wraz z towarzyszącymi e-mailami od prawnika Martina Zelnera, przekonała menedżera do rozdysponowania funduszy, które miały być przeznaczone na nabycie firmy.
W wniosku stwierdza się:
‘Według władz emirackich, 15 stycznia 2020 roku menedżer oddziału firmy ofiary otrzymał telefon, który rzekomo pochodził z centrali firmy. Osoba dzwoniąca brzmiała jak dyrektor firmy, więc menedżer oddziału uwierzył, że telefon jest autentyczny.
‘Menedżer oddziału otrzymał również kilka e-maili, które uwierzył, że pochodzą od dyrektora i były związane z telefonem. Osoba dzwoniąca powiedziała menedżerowi oddziału przez telefon i e-mail, że firma ofiary ma nabyć inną firmę, a prawnik o imieniu Martin Zelner (Zelner) został upoważniony do koordynowania procedur nabycia.’
Menedżer oddziału otrzymał następnie e-maile od Zelnera wraz z listem autoryzacji od (rzekomego) dyrektora, którego głos był znany ofierze.
Wykryto oszustwo głosu Deepfake
Śledczy z Zjednoczonych Emiratów Arabskich ustalili, że technologia klonowania głosu deepfake została wykorzystana do naśladownictwa głosu dyrektora firmy:
‘Śledztwo emirackie ujawniło, że oskarżeni wykorzystali technologię “głosu głębokiego” do symulowania głosu dyrektora. W styczniu 2020 roku fundusze zostały przeniesione z firmy ofiary na kilka kont bankowych w innych krajach w ramach złożonej operacji, w której uczestniczyło co najmniej 17 znanych i nieznanych oskarżonych. Władze emirackie śledziły ruch pieniędzy przez wiele kont i zidentyfikowały dwie transakcje w Stanach Zjednoczonych.
’22 stycznia 2020 roku dwie transakcje o wartości 199 987,75 USD i 215 985,75 USD zostały wysłane z dwóch kont oskarżonych na konta banku Centennial o numerach xxxxx7682 i xxxxx7885, odpowiednio, zlokalizowane w Stanach Zjednoczonych.’
Nie ma więcej informacji na temat przestępstwa, które jest tylko drugim znanym przypadkiem oszustwa finansowego opartego na głosie deepfake. Pierwszy miał miejsce dziewięć miesięcy wcześniej, w marcu 2020 roku, kiedy menedżer brytyjskiej firmy energetycznej został nakłoniony przez telefon do przelania 220 000 euro (243 000 dolarów), co następnie zrobił.
Rozwój klonowania głosu
Klonowanie głosu deepfake polega na szkoleniu modelu uczenia maszynowego na setkach lub tysiącach próbek “celowego” głosu (głosu, który ma być naśladowany). Najdokładniejszy dopasowanie można uzyskać, szkoląc głos docelowy bezpośrednio przeciwko głosowi osoby, która będzie mówiła w proponowanym scenariuszu, chociaż model będzie “przeztreningowany” do osoby, która będzie naśladować głos docelowy.
Najbardziej aktywna społeczność online dla deweloperów klonowania głosu to serwer Audio Fakes Discord, który zawiera fora dla wielu algorytmów klonowania głosu deepfake, takich jak Google Tacotron-2, Talknet, ForwardTacotron, Coqui-ai-TTS i Glow-TTS, wśród innych.
Deepfakes w czasie rzeczywistym
Ponieważ rozmowa telefoniczna jest koniecznie interaktywna, oszustwo klonowania głosu nie może być rozsądnie wykonane przez “upieczone” klipy głosowe o wysokiej jakości, a w obu przypadkach oszustwa klonowania głosu możemy rozsądnie przyjąć, że mówca używa ramy deepfake w czasie rzeczywistym.
Deepfakes w czasie rzeczywistym weszły w centrum uwagi ostatnio ze względu na pojawienie się DeepFaceLive, wdrożenia w czasie rzeczywistym popularnego pakietu deepfake DeepFaceLab, który może nakładać celebrytów lub inne tożsamości na nagrania wideo z kamery internetowej. Chociaż użytkownicy serwera Audio Fakes Discord i DeepFaceLab Discord są intensywnie zainteresowani połączeniem obu technologii w jedną architekturę deepfake wideo + głos w czasie rzeczywistym, nie pojawił się jeszcze publicznie taki produkt.










