Connect with us

Deepfaked Φωνή Ενεργοποίησε Κλοπή Τραπέζης $35 Εκατομμυρίων το 2020

Κυβερνοασφάλεια

Deepfaked Φωνή Ενεργοποίησε Κλοπή Τραπέζης $35 Εκατομμυρίων το 2020

mm

Eine έρευνα για την απάτη $35 εκατομμυρίων USD από μια τράπεζα στα Ηνωμένα Αραβικά Εμιράτα τον Ιανουάριο του 2020 αποκάλυψε ότι χρησιμοποιήθηκε τεχνολογία deepfake φωνής για να μιμηθεί ο διευθυντής μιας εταιρείας γνωστός σε einen διευθυντή τράπεζας, ο οποίος στη συνέχεια εξουσιοδότησε τις συναλλαγές.

Το έγκλημα συνέβη στις 15 Ιανουαρίου του περασμένου χρόνου και περιγράφεται σε μια αίτηση (PDF) από τα Ηνωμένα Αραβικά Εμιράτα προς τις αμερικανικές αρχές για βοήθεια στην ανίχνευση ενός μέρους των αποσπασμένων κεφαλαίων που στάλθηκαν στις Ηνωμένες Πολιτείες.

Η αίτηση αναφέρει ότι ο διευθυντής του κλάδου μιας ανώνυμης θυγατρικής τράπεζας στα Ηνωμένα Αραβικά Εμιράτα έλαβε einen τηλεφώνημα από μια οικεία φωνή, η οποία, μαζί με συνοδευτικά emails από einen δικηγόρο με το όνομα Martin Zelner, έπεισε τον διευθυντή να διανείμει τα κεφάλαια, τα οποία φαινόταν να προορίζονται για την απόκτηση μιας εταιρείας.

Η αίτηση αναφέρει:

‘Σύμφωνα με τις εμιρατικές αρχές, στις 15 Ιανουαρίου 2020, ο διευθυντής του κλάδου της θυγατρικής εταιρείας έλαβε einen τηλεφώνημα που ισχυρίστηκε ότι προέρχονταν από την εταιρεία. Ο καλούντας ήχισε σαν ο διευθυντής της εταιρείας, οπότε ο διευθυντής του κλάδου πίστευε ότι το τηλεφώνημα ήταν νόμιμο.

‘Ο διευθυντής του κλάδου έλαβε επίσης plusieurs emails που πίστευε ότι προέρχονταν από τον διευθυντή και σχετίζονταν με το τηλεφώνημα. Ο καλούντας είπε στον διευθυντή του κλάδου με το τηλέφωνο και το email ότι η θυγατρική εταιρεία ήταν να αποκτήσει μια άλλη εταιρεία και ότι ένας δικηγόρος με το όνομα Martin Zelner (Zelner) είχε εξουσιοδοτηθεί να συντονίσει τις διαδικασίες για την απόκτηση.’

Ο διευθυντής του κλάδου έλαβε στη συνέχεια τα emails από τον Zelner, μαζί με einen επιστολή εξουσιοδότησης από τον (υποτιθέμενο) διευθυντή, της φωνής του οποίου ήταν οικεία στον θύμα.

Απάτη με Deepfake Φωνή

Οι εμιρατικές αρχές κατέληξαν στο συμπέρασμα ότι είχε χρησιμοποιηθεί τεχνολογία deepfake φωνής για να μιμηθεί η φωνή του διευθυντή της εταιρείας:

‘Η εμιρατική έρευνα αποκάλυψε ότι οι κατηγορούμενοι είχαν χρησιμοποιήσει “βαθιά φωνή” τεχνολογία για να симулировать την φωνή του διευθυντή. Τον Ιανουάριο του 2020, τα κεφάλαια μεταφέρθηκαν από την θυγατρική εταιρεία σε plusieurs τραπεζικούς λογαριασμούς σε άλλες χώρες σε einen σύνθετο σχήμα που εμπλέκει τουλάχιστον 17 γνωστούς και άγνωστους κατηγορούμενους. Οι εμιρατικές αρχές ανίχνευσαν την κίνηση των κεφαλαίων μέσω πολλών λογαριασμών και ταυτοποίησαν δύο συναλλαγές στις Ηνωμένες Πολιτείες.

‘Στις 22 Ιανουαρίου 2020, δύο μεταφορές των USD 199.987,75 και USD 215.985,75 στάλθηκαν από δύο των κατηγορουμένων σε λογαριασμούς της τράπεζας Centennial με αριθμούς xxxxx7682 και xxxxx7885, αντίστοιχα, που βρίσκονται στις Ηνωμένες Πολιτείες.’

Δεν υπάρχουν περαιτέρω λεπτομέρειες σχετικά με το έγκλημα, το οποίο είναι μόνο η δεύτερη γνωστή περίπτωση απάτης με deepfake φωνή. Η πρώτη περίπτωση συνέβη εννέα μήνες νωρίτερα, τον Μάρτιο του 2020, όταν ένας εκτελεστής μιας βρετανικής εταιρείας ενέργειας δέχθηκε einen τηλεφώνημα από того που φαινόταν να είναι ο προϊστάμενός του, ζητώντας την επείγουσα μεταφορά των €220.000 ($243.000), τα οποία ο εργαζόμενος συνέχισε να εκτελεί.

Ανάπτυξη Φωνής Κλόνου

Η τεχνολογία deepfake φωνής κλόνου εμπλέκει την εκπαίδευση ενός μοντέλου машинικής μάθησης σε εκατοντάδες ή χιλιάδες δείγματα της “στόχου” φωνής (της φωνής που θα μιμηθεί). Η πιο ακριβής αντιστοίχηση μπορεί να ληφθεί με την εκπαίδευση της στόχου φωνής απευθείας ενάντια στη φωνή του ατόμου που θα μιλήσει στην προτεινόμενη περίπτωση, αν και το μοντέλο θα είναι “υπερπροσαρμοσμένο” στο άτομο που θα μιμηθεί την στόχο.

Deepfakes σε Εchtzeit

Από το ότι ένα τηλεφώνημα είναι αναγκαστικά διαδραστικό, η απάτη με φωνή κλόνου δεν μπορεί να επιτευχθεί με “ψημένα” υψηλής ποιότητας ηχητικά κλιπ, και στις δύο περιπτώσεις απάτης με φωνή κλόνου, μπορούμε να υποθέσουμε ότι ο ομιλητής χρησιμοποιεί einen ζωντανό, πραγματικό χρόνο deepfake πλαίσιο.

Συγγραφέας για τη μηχανική μάθηση, ειδικός σε τομέα συνθέσεων εικόνων ανθρώπων. Πρώην επικεφαλής ερευνών περιεχομένου στη Metaphysic.ai.
Προσωπικός ιστότοπος: martinanderson.ai
Επικοινωνία: [email protected]

Γνωστοποίηση διαφημιζόμενων: Το Unite.AI δεσμεύεται σε αυστηρά συντακτικά πρότυπα για την παροχή ακριβών πληροφοριών και ειδήσεων στους αναγνώστες μας. Ενδέχεται να λάβουμε αποζημίωση όταν κάνετε κλικ σε συνδέσμους προς προϊόντα που έχουμε αξιολογήσει.