toco Deepfaked Voice possibilitou assalto a banco de US$ 35 milhões em 2020 - Unite.AI
Entre em contato

Cíber segurança

Deepfaked Voice possibilitou assalto a banco de US$ 35 milhões em 2020

mm
Atualização do on

Uma investigação sobre a fraude de US $ 35 milhões de um banco nos Emirados Árabes Unidos em janeiro de 2020 descobriu que a tecnologia de voz deepfake foi usada para imitar um diretor da empresa conhecido por um gerente de agência bancária, que então autorizou as transações.

O crime ocorreu no dia 15 de janeiro do ano passado, e está delineado em um solicitar (PDF) dos Emirados Árabes Unidos às autoridades estatais americanas para ajuda no rastreamento de uma parte dos fundos desviados que foram enviados para os Estados Unidos.

O pedido afirma que o gerente da agência de um banco não identificado nos Emirados Árabes Unidos recebeu um telefonema de uma voz familiar que, juntamente com e-mails de um advogado chamado Martin Zelner, convenceu o gerente a desembolsar os fundos, que aparentemente se destinavam ao aquisição de uma empresa.

A solicitar afirma:

'De acordo com as autoridades dos Emirados, em 15 de janeiro de 2020, o gerente da filial da Victim Company recebeu um telefonema que dizia ser da sede da empresa. A pessoa que ligou parecia ser o diretor da empresa, então o gerente da filial achou que a ligação era legítima.

'O gerente da agência também recebeu vários e-mails que ele acreditava serem do diretor relacionados ao telefonema. A pessoa que ligou disse ao gerente da filial por telefone e e-mail que a Victim Company estava prestes a adquirir outra empresa e que um advogado chamado Martin Zelner (Zelner) havia sido autorizado a coordenar os procedimentos para a aquisição.'

O gerente da sucursal recebeu então os emails de Zelner, juntamente com uma carta de autorização do (suposto) Diretor, cuja voz era familiar à vítima.

Fraude de voz deepfake identificada

Os investigadores dos Emirados então estabeleceram que a tecnologia de clonagem de voz deepfake havia sido usada para imitar a voz do diretor da empresa:

'A investigação dos Emirados revelou que os réus usaram a tecnologia de “voz profunda” para simular a voz do Diretor. Em janeiro de 2020, os fundos foram transferidos da Victim Company para várias contas bancárias em outros países em um complexo esquema envolvendo pelo menos 17 réus conhecidos e desconhecidos. As autoridades dos Emirados rastrearam a movimentação do dinheiro por meio de várias contas e identificaram duas transações para os Estados Unidos.

'Em 22 de janeiro de 2020, duas transferências de US$ 199,987.75 e US$ 215,985.75 foram enviadas de dois dos réus para as contas do Centennial Bank, xxxxx7682 e xxxxx7885, respectivamente, localizadas nos Estados Unidos.'

Não há mais detalhes disponíveis sobre o crime, que é apenas a segunda incidência conhecida de fraude financeira deepfake baseada em voz. A primeira ocorreu nove meses antes, em março de 2020, quando um executivo de uma empresa de energia do Reino Unido foi discursado ao telefone pelo que parecia ser o chefe do funcionário, exigindo a transferência urgente de € 220,000 (US$ 243,000), que o funcionário então transacionado.

Desenvolvimento de clonagem de voz

A clonagem de voz deepfake envolve o treinamento de um modelo de aprendizado de máquina em centenas ou milhares de amostras da voz ‘alvo’ (a voz que será imitada). A correspondência mais precisa pode ser obtida treinando a voz alvo diretamente contra a voz da pessoa que estará falando no cenário proposto, embora o modelo seja 'overfitted' para a pessoa que representa o alvo.

A comunidade online legítima mais ativa para desenvolvedores de clonagem de voz é a Falsificações de áudio Servidor Discord, que apresenta fóruns para muitos algoritmos de clonagem de voz deepfake, como o do Google Tacotron-2, Rede de conversação, Avançar Tacotron, Coqui-ai-TTS e Brilho-TTS, Entre outros.

Deepfakes em tempo real

Uma vez que uma conversa telefônica é necessariamente interativa, a fraude de clonagem de voz não pode ser razoavelmente efetuada por clipes de voz de alta qualidade e, em ambos os casos de fraude de clonagem de voz, podemos presumir razoavelmente que o locutor está usando um deepfake ao vivo e em tempo real. estrutura.

Deepfakes em tempo real entraram em foco ultimamente devido ao advento do DeepFaceLive, uma implementação em tempo real do popular pacote deepfake DeepFaceLab, que pode sobrepor celebridades ou outras identidades em imagens de webcam ao vivo. Embora os usuários do Audio Fakes Discord e do DeepFaceLab Discord estejam intensamente interessados ​​em combinar as duas tecnologias em uma única arquitetura deepfake ao vivo de vídeo + voz, nenhum produto desse tipo surgiu publicamente ainda.