talón Deepfaked Voice permitió un atraco bancario de $ 35 millones en 2020 - Unite.AI
Contáctanos

La Ciberseguridad

Deepfaked Voice permitió un atraco bancario de $ 35 millones en 2020

mm
Actualizado on

Una investigación sobre el fraude de $ 35 millones de dólares de un banco en los Emiratos Árabes Unidos en enero de 2020 descubrió que se utilizó tecnología de voz falsa para imitar a un director de la empresa conocido por el gerente de una sucursal bancaria, quien luego autorizó las transacciones.

El crimen tuvo lugar el 15 de enero del año pasado, y está reseñado en un solicita (PDF) por parte de los EAU a las autoridades estatales estadounidenses para obtener ayuda en el rastreo de una parte de los fondos desviados que se enviaron a los Estados Unidos.

La solicitud establece que el gerente de la sucursal de un banco víctima no identificado en los Emiratos Árabes Unidos recibió una llamada telefónica de una voz familiar que, junto con los correos electrónicos adjuntos de un abogado llamado Martin Zelner, convencieron al gerente de desembolsar los fondos, que aparentemente estaban destinados a la adquisición de una empresa.

El solicita establece lo siguiente:

'Según las autoridades emiratíes, el 15 de enero de 2020, el gerente de la sucursal de Victim Company recibió una llamada telefónica que decía ser de la sede de la empresa. La persona que llamó sonaba como el director de la empresa, por lo que el gerente de la sucursal creía que la llamada era legítima.

El gerente de la sucursal también recibió varios correos electrónicos que creía que eran del director y que estaban relacionados con la llamada telefónica. La persona que llamó le dijo al gerente de la sucursal por teléfono y correo electrónico que Victim Company estaba a punto de adquirir otra empresa y que un abogado llamado Martin Zelner (Zelner) había sido autorizado para coordinar los procedimientos para la adquisición.

El gerente de la sucursal recibió entonces los correos electrónicos de Zelner, junto con una carta de autorización del (supuesto) Director, cuya voz era familiar para la víctima.

Fraude de voz deepfake identificado

Los investigadores emiratíes luego establecieron que la tecnología de clonación de voz deepfake se había utilizado para imitar la voz del director de la empresa:

'La investigación emiratí reveló que los acusados ​​habían utilizado tecnología de "voz profunda" para simular la voz del director. En enero de 2020, se transfirieron fondos de Victim Company a varias cuentas bancarias en otros países en un esquema complejo que involucró al menos a 17 acusados ​​conocidos y desconocidos. Las autoridades emiratíes rastrearon el movimiento del dinero a través de numerosas cuentas e identificaron dos transacciones a Estados Unidos.

'El 22 de enero de 2020, dos transferencias de USD 199,987.75 y USD 215,985.75 fueron enviadas por dos de los demandados a los números de cuenta de Centennial Bank, xxxxx7682 y xxxxx7885, respectivamente, ubicados en los Estados Unidos.'

No hay más detalles disponibles sobre el crimen, que es solo la segunda incidencia conocida de fraude financiero deepfake basado en voz. El primero tuvo lugar nueve meses antes, en marzo de 2020, cuando un ejecutivo de una empresa de energía del Reino Unido fue arengado por teléfono por lo que sonaba como el jefe del empleado, exigiendo la transferencia urgente de 220,000 euros (243,000 dólares), que el empleado luego tramitado.

Desarrollo de clonación de voz

La clonación de voces deepfake implica el entrenamiento de un modelo de aprendizaje automático en cientos o miles de muestras de la voz "objetivo" (la voz que será imitada). La coincidencia más precisa se puede obtener entrenando la voz del objetivo directamente con la voz de la persona que hablará en el escenario propuesto, aunque el modelo se "sobreajustará" a la persona que se hará pasar por el objetivo.

La comunidad en línea legítima más activa para los desarrolladores de clonación de voz es la Falsificaciones de audio Servidor Discord, que presenta foros para muchos algoritmos de clonación de voz falsos como el de Google Tacotrón-2, TalkNet, DelanteroTacotron, Coqui-ai-TTS y Resplandor-TTS, entre otros.

Falsificaciones profundas en tiempo real

Dado que una conversación telefónica es necesariamente interactiva, el fraude de clonación de voz no puede efectuarse razonablemente con clips de voz de alta calidad 'horneados', y en ambos casos de fraude de clonación de voz, podemos suponer razonablemente que el orador está usando un deepfake en vivo y en tiempo real. estructura.

Las falsificaciones profundas en tiempo real se han puesto de manifiesto últimamente debido a la llegada de DeepFaceLive, una implementación en tiempo real del popular paquete de falsificaciones profundas DeepFaceLab, que puede superponer identidades de celebridades u otras. en imágenes de cámaras web en vivo. Aunque los usuarios de Audio Fakes Discord y DeepFaceLab Discord están muy interesados ​​en combinar las dos tecnologías en una única arquitectura deepfake en vivo de video + voz, ningún producto de este tipo ha surgido públicamente hasta el momento.