στέλεχος Τι είναι τα Deepfakes; - Unite.AI
Συνδεθείτε μαζί μας

AI 101

Τι είναι τα Deepfakes;

mm
Ενημερώθηκε on

Καθώς τα deepfakes γίνονται πιο εύκολα και πιο παραγωγικά, δίνεται περισσότερη προσοχή σε αυτά. Τα Deepfakes έχουν γίνει το επίκεντρο των συζητήσεων που αφορούν την ηθική της τεχνητής νοημοσύνης, την παραπληροφόρηση, τη διαφάνεια των πληροφοριών και του Διαδικτύου και τη ρύθμιση. Αξίζει να είστε ενημερωμένοι σχετικά με τα deepfakes και να έχετε μια διαισθητική κατανόηση του τι είναι τα deepfakes. Αυτό το άρθρο θα αποσαφηνίσει τον ορισμό του deepfake, θα εξετάσει τις περιπτώσεις χρήσης τους, θα συζητήσει πώς μπορούν να ανιχνευθούν τα deepfakes και θα εξετάσει τις επιπτώσεις των deepfake για την κοινωνία.

Τι είναι τα Deepfakes;

Πριν προχωρήσετε στην περαιτέρω συζήτηση για τα deepfakes, θα ήταν χρήσιμο να αφιερώσετε λίγο χρόνο και να διευκρινίσετε τι είναι στην πραγματικότητα τα «deepfakes».. Υπάρχει μια σημαντική σύγχυση σχετικά με τον όρο Deepfake και συχνά ο όρος χρησιμοποιείται εσφαλμένα σε οποιοδήποτε παραποιημένο μέσο, ​​ανεξάρτητα από το αν πρόκειται για γνήσιο deepfake ή όχι. Προκειμένου να χαρακτηριστεί ως Deepfake, τα εν λόγω πλαστά μέσα πρέπει να δημιουργηθούν με ένα σύστημα μηχανικής μάθησης, συγκεκριμένα ένα βαθύ νευρωνικό δίκτυο.

Το βασικό συστατικό των deepfakes είναι η μηχανική μάθηση. Η μηχανική εκμάθηση έδωσε τη δυνατότητα στους υπολογιστές να παράγουν αυτόματα βίντεο και ήχο σχετικά γρήγορα και εύκολα. Τα βαθιά νευρωνικά δίκτυα εκπαιδεύονται σε πλάνα ενός πραγματικού προσώπου, προκειμένου το δίκτυο να μάθει πώς φαίνονται και κινούνται οι άνθρωποι κάτω από τις στοχευόμενες περιβαλλοντικές συνθήκες. Το εκπαιδευμένο δίκτυο χρησιμοποιείται στη συνέχεια σε εικόνες άλλου ατόμου και επαυξάνεται με πρόσθετες τεχνικές γραφικών υπολογιστή προκειμένου να συνδυαστεί το νέο άτομο με το αρχικό υλικό. Ένας αλγόριθμος κωδικοποιητή χρησιμοποιείται για τον προσδιορισμό των ομοιοτήτων μεταξύ της αρχικής όψης και της όψης στόχου. Αφού απομονωθούν τα κοινά χαρακτηριστικά των προσώπων, χρησιμοποιείται ένας δεύτερος αλγόριθμος τεχνητής νοημοσύνης που ονομάζεται αποκωδικοποιητής. Ο αποκωδικοποιητής εξετάζει τις κωδικοποιημένες (συμπιεσμένες) εικόνες και τις αναδομεί με βάση τα χαρακτηριστικά των αρχικών εικόνων. Χρησιμοποιούνται δύο αποκωδικοποιητές, ένας στο πρόσωπο του αρχικού θέματος και ο δεύτερος στο πρόσωπο του ατόμου-στόχου. Προκειμένου να γίνει η εναλλαγή, ο αποκωδικοποιητής που έχει εκπαιδευτεί σε εικόνες του ατόμου Χ τροφοδοτείται με εικόνες του ατόμου Υ. Το αποτέλεσμα είναι ότι το πρόσωπο του ατόμου Υ είναι ανακατασκευή πάνω από τις εκφράσεις του προσώπου και τον προσανατολισμό του ατόμου Χ.

Προς το παρόν, χρειάζεται ακόμα αρκετός χρόνος για να γίνει ένα deepfake. Ο δημιουργός του ψεύτικου πρέπει να αφιερώσει πολύ χρόνο για να προσαρμόσει χειροκίνητα τις παραμέτρους του μοντέλου, καθώς οι μη βέλτιστες παράμετροι θα οδηγήσουν σε αξιοσημείωτες ατέλειες και δυσλειτουργίες εικόνας που αναδεικνύουν την πραγματική φύση του ψεύτικου.

Αν και συχνά θεωρείται ότι τα περισσότερα deepfakes γίνονται με έναν τύπο νευρωνικού δικτύου που ονομάζεται a Generative Adversarial Network (GAN), πολλά (ίσως τα περισσότερα) deepfakes που δημιουργούνται αυτές τις μέρες δεν βασίζονται σε GAN. Ενώ τα GAN έπαιξαν εξέχοντα ρόλο στη δημιουργία πρώιμων deepfakes, τα περισσότερα deepfake βίντεο δημιουργούνται μέσω εναλλακτικών μεθόδων, σύμφωνα με τον Siwei Lyu από το SUNY Buffalo.

Απαιτείται δυσανάλογα μεγάλος όγκος δεδομένων εκπαίδευσης για την εκπαίδευση ενός GAN και τα GAN συχνά χρειάζονται πολύ περισσότερο χρόνο για να αποδώσουν μια εικόνα σε σύγκριση με άλλες τεχνικές δημιουργίας εικόνας. Τα GAN είναι επίσης καλύτερα για τη δημιουργία στατικών εικόνων από το βίντεο, καθώς τα GAN αντιμετωπίζουν δυσκολίες στη διατήρηση της συνοχής από καρέ σε καρέ. Είναι πολύ πιο συνηθισμένο να χρησιμοποιείτε έναν κωδικοποιητή και πολλαπλούς αποκωδικοποιητές για τη δημιουργία deepfakes.

Σε τι χρησιμεύουν τα Deepfakes;

Πολλά από τα deepfakes που βρίσκονται στο διαδίκτυο είναι πορνογραφικού χαρακτήρα. Σύμφωνα με έρευνα που έγινε από την Deeptrace, μια εταιρεία τεχνητής νοημοσύνης, από ένα δείγμα περίπου 15,000 deepfake βίντεο που τραβήχτηκαν τον Σεπτέμβριο του 2019, περίπου το 95% από αυτά ήταν πορνογραφικού χαρακτήρα. Μια ανησυχητική συνέπεια αυτού του γεγονότος είναι ότι καθώς η τεχνολογία γίνεται πιο εύκολη στη χρήση, θα μπορούσαν να αυξηθούν περιστατικά ψεύτικης εκδίκησης πορνό.

Ωστόσο, δεν είναι όλα τα βαθιά ψεύτικα πορνογραφικά στη φύση. Υπάρχουν πιο νόμιμες χρήσεις για την τεχνολογία deepfake. Η τεχνολογία deepfake ήχου θα μπορούσε να βοηθήσει τους ανθρώπους να μεταδώσουν τις κανονικές φωνές τους αφού καταστραφούν ή χαθούν λόγω ασθένειας ή τραυματισμού. Τα Deepfakes μπορούν επίσης να χρησιμοποιηθούν για την απόκρυψη των προσώπων ατόμων που βρίσκονται σε ευαίσθητες, δυνητικά επικίνδυνες καταστάσεις, ενώ παράλληλα επιτρέπουν την ανάγνωση των χειλιών και των εκφράσεών τους. Η τεχνολογία Deepfake μπορεί ενδεχομένως να χρησιμοποιηθεί για τη βελτίωση της μεταγλώττισης ξενόγλωσσων ταινιών, για την επισκευή παλαιών και κατεστραμμένων μέσων, ακόμη και για τη δημιουργία νέων στυλ τέχνης.

Deepfakes χωρίς βίντεο

Ενώ οι περισσότεροι άνθρωποι σκέφτονται ψεύτικα βίντεο όταν ακούν τον όρο "deepfake", τα ψεύτικα βίντεο δεν είναι σε καμία περίπτωση το μόνο είδος ψεύτικα μέσα που παράγονται με τεχνολογία deepfake. Η τεχνολογία Deepfake χρησιμοποιείται επίσης για τη δημιουργία πλαστών φωτογραφιών και ήχου. Όπως αναφέρθηκε προηγουμένως, τα GAN χρησιμοποιούνται συχνά για τη δημιουργία ψεύτικων εικόνων. Θεωρείται ότι έχουν υπάρξει πολλές περιπτώσεις πλαστών προφίλ στο LinkedIn και στο Facebook που έχουν εικόνες προφίλ που έχουν δημιουργηθεί με αλγόριθμους deepfake.

Είναι επίσης δυνατό να δημιουργήσετε βαθιά ψεύτικα ήχου. Τα βαθιά νευρωνικά δίκτυα εκπαιδεύονται για να παράγουν κλώνους φωνής/δέρματα φωνής διαφορετικών ανθρώπων, συμπεριλαμβανομένων διασημοτήτων και πολιτικών. Ένα διάσημο παράδειγμα ενός ήχου Deepfake είναι όταν η εταιρεία AI Dessa έκανε χρήση μοντέλου AI, υποστηρίζεται από αλγόριθμους που δεν είναι AI, για να αναδημιουργηθεί η φωνή του οικοδεσπότη του podcast Joe Rogan.

Πώς να εντοπίσετε τα Deepfakes

Καθώς τα deepfakes γίνονται όλο και πιο εξελιγμένα, η διάκρισή τους από τα γνήσια μέσα θα γίνεται όλο και πιο σκληρή. Επί του παρόντος, υπάρχουν μερικά ενδεικτικά σημάδια Οι άνθρωποι μπορούν να αναζητήσουν για να εξακριβώσουν εάν ένα βίντεο είναι δυνητικά ψεύτικο, όπως κακός συγχρονισμός των χειλιών, αφύσικη κίνηση, τρεμόπαιγμα γύρω από την άκρη του προσώπου και παραμόρφωση λεπτών λεπτομερειών όπως μαλλιά, δόντια ή ανταύγειες. Άλλα πιθανά σημάδια ενός deepfake περιλαμβάνουν μέρη χαμηλότερης ποιότητας του ίδιου βίντεο και ακανόνιστο ανοιγοκλείσιμο των ματιών.

Αν και αυτά τα σημάδια μπορεί να βοηθήσουν κάποιον να εντοπίσει ένα deepfake αυτή τη στιγμή, καθώς η τεχνολογία deepfake βελτιώνει, η μόνη επιλογή για αξιόπιστη ανίχνευση deepfake μπορεί να είναι άλλοι τύποι τεχνητής νοημοσύνης που έχουν εκπαιδευτεί να διακρίνουν τα ψεύτικα από τα πραγματικά μέσα.

Οι εταιρείες τεχνητής νοημοσύνης, συμπεριλαμβανομένων πολλών από τις μεγάλες εταιρείες τεχνολογίας, ερευνούν μεθόδους ανίχνευσης deepfakes. Τον περασμένο Δεκέμβριο, ξεκίνησε μια πρόκληση εντοπισμού deepfake, η οποία υποστηρίζεται από τρεις τεχνολογικούς γίγαντες: την Amazon, το Facebook και τη Microsoft. Ερευνητικές ομάδες από όλο τον κόσμο εργάστηκαν σε μεθόδους ανίχνευσης deepfakes, ανταγωνιζόμενοι για την ανάπτυξη των καλύτερων μεθόδων ανίχνευσης. Άλλες ομάδες ερευνητών, όπως μια ομάδα συνδυασμένων ερευνητών από την Google και το Jigsaw, εργάζονται σε έναν τύπο «εγκληματολογικών προσώπων» που μπορεί να ανιχνεύσει βίντεο που έχουν αλλοιωθεί, καθιστώντας τα σύνολα δεδομένων τους ανοιχτού κώδικα και ενθαρρύνοντας άλλους να αναπτύξουν μεθόδους ανίχνευσης deepfake. Η προαναφερθείσα Dessa έχει εργαστεί για τη βελτίωση των τεχνικών ανίχνευσης deepfake, προσπαθώντας να διασφαλίσει ότι τα μοντέλα ανίχνευσης λειτουργούν σε βαθιά ψεύτικα βίντεο που βρίσκονται στη φύση (στο διαδίκτυο) και όχι μόνο σε προκατασκευασμένα σύνολα δεδομένων εκπαίδευσης και δοκιμής, όπως το σύνολο δεδομένων ανοιχτού κώδικα Παρέχεται η Google.

Υπάρχουν επίσης άλλες στρατηγικές που διερευνώνται για την αντιμετώπιση του πολλαπλασιασμού των deepfakes. Για παράδειγμα, ο έλεγχος των βίντεο για συμφωνία με άλλες πηγές πληροφοριών είναι μια στρατηγική. Μπορούν να γίνουν αναζητήσεις για βίντεο συμβάντων που πιθανώς λαμβάνονται από άλλες οπτικές γωνίες ή μπορούν να ελεγχθούν λεπτομέρειες παρασκηνίου του βίντεο (όπως μοτίβα καιρού και τοποθεσίες) για ασυμφωνίες. Πέρα από αυτό, ένα διαδικτυακό λογιστικό σύστημα Blockchain θα μπορούσε να καταχωρήσει βίντεο όταν δημιουργηθούν αρχικά, κρατώντας τον αρχικό ήχο και τις εικόνες τους, έτσι ώστε τα παράγωγα βίντεο να μπορούν πάντα να ελέγχονται για παραποίηση.

Τελικά, είναι σημαντικό να δημιουργηθούν αξιόπιστες μέθοδοι ανίχνευσης deepfake και αυτές οι μέθοδοι ανίχνευσης να συμβαδίζουν με τις πιο πρόσφατες εξελίξεις στην τεχνολογία deepfake. Αν και είναι δύσκολο να γνωρίζουμε ακριβώς ποιες θα είναι οι επιπτώσεις των deepfakes, εάν δεν υπάρχουν αξιόπιστες μέθοδοι ανίχνευσης των deepfakes (και άλλων μορφών ψεύτικων μέσων), η παραπληροφόρηση θα μπορούσε δυνητικά να ανεξέλεγκτη και να υποβαθμίσει την εμπιστοσύνη των ανθρώπων στην κοινωνία και τους θεσμούς.

Συνέπειες του Deepfakes

Ποιοι είναι οι κίνδυνοι να επιτραπεί να πολλαπλασιαστεί ανεξέλεγκτα το deep fake;

Ένα από τα μεγαλύτερα προβλήματα που δημιουργούν τα deepfakes αυτή τη στιγμή είναι η μη συναινετική πορνογραφία, η οποία έχει σχεδιαστεί με το συνδυασμό των προσώπων των ανθρώπων με πορνογραφικά βίντεο και εικόνες. Οι τεχνίτες της τεχνητής νοημοσύνης ανησυχούν ότι τα deepfakes θα χρησιμοποιηθούν περισσότερο στη δημιουργία ψεύτικο πορνό εκδίκησης. Πέρα από αυτό, τα deepfakes θα μπορούσαν να χρησιμοποιηθούν για να εκφοβίσουν και να βλάψουν τη φήμη σχεδόν οποιουδήποτε, καθώς θα μπορούσαν να χρησιμοποιηθούν για να τοποθετήσουν τους ανθρώπους σε αμφιλεγόμενα και συμβιβαστικά σενάρια.

Εταιρείες και ειδικοί στον τομέα της κυβερνοασφάλειας έχουν εκφράσει την ανησυχία τους για τη χρήση deepfakes για τη διευκόλυνση απάτης, απάτης και εκβιασμού. Σύμφωνα με τους ισχυρισμούς, υπήρξε deepfake ήχος χρησιμοποιείται για να πείσει τους εργαζόμενους μιας εταιρείας για μεταφορά χρημάτων σε απατεώνες

Είναι πιθανό τα deepfakes να έχουν επιβλαβή αποτελέσματα ακόμη και πέρα ​​από αυτά που αναφέρονται παραπάνω. Τα Deepfakes θα μπορούσαν ενδεχομένως να διαβρώσουν την εμπιστοσύνη των ανθρώπων στα μέσα ενημέρωσης γενικά και να δυσκολέψουν τους ανθρώπους να διακρίνουν μεταξύ πραγματικών ειδήσεων και ψεύτικων ειδήσεων. Εάν πολλά βίντεο στον ιστό είναι ψεύτικα, γίνεται ευκολότερο για τις κυβερνήσεις, τις εταιρείες και άλλες οντότητες να αμφισβητήσουν νόμιμες διαμάχες και ανήθικες πρακτικές.

Όσον αφορά τις κυβερνήσεις, τα deepfakes ενδέχεται να αποτελούν απειλές για τη λειτουργία της δημοκρατίας. Η δημοκρατία απαιτεί οι πολίτες να είναι σε θέση να λαμβάνουν τεκμηριωμένες αποφάσεις για τους πολιτικούς με βάση αξιόπιστες πληροφορίες. Η παραπληροφόρηση υπονομεύει τις δημοκρατικές διαδικασίες. Για παράδειγμα, ο πρόεδρος της Γκαμπόν, Αλί Μπόνγκο, εμφανίστηκε σε ένα βίντεο προσπαθώντας να καθησυχάσει τους πολίτες της Γκαμπόν. Ο πρόεδρος υποτίθεται ότι δεν ήταν καλά για μεγάλο χρονικό διάστημα και η ξαφνική εμφάνισή του μέσα ένα πιθανό ψεύτικο βίντεο ξεκίνησε μια απόπειρα πραξικοπήματος. Ο Πρόεδρος Ντόναλντ Τραμπ ισχυρίστηκε ότι μια ηχητική ηχογράφηση του καυχιέται ότι αρπάζει γυναίκες από τα γεννητικά όργανα ήταν ψεύτικο, παρόλο που το περιέγραψε επίσης ως «κουβέντα στα αποδυτήρια». Ο πρίγκιπας Ανδρέας επίσης ισχυρίστηκε ότι μια εικόνα που έδωσε ο δικηγόρος της Έμιλυ Μαϊτίλη ήταν ψεύτικη, αν και ο δικηγόρος επέμεινε στη γνησιότητά του.

Τελικά, ενώ υπάρχουν νόμιμες χρήσεις για την τεχνολογία deepfake, υπάρχουν πολλές πιθανές βλάβες που μπορεί να προκύψουν από την κακή χρήση αυτής της τεχνολογίας. Για το λόγο αυτό, είναι εξαιρετικά σημαντικό να δημιουργούνται και να διατηρούνται μέθοδοι για τον προσδιορισμό της αυθεντικότητας των μέσων.

Blogger και προγραμματιστής με ειδικότητες στο Μηχανική μάθηση και Βαθιά μάθηση Θέματα. Ο Daniel ελπίζει να βοηθήσει άλλους να χρησιμοποιήσουν τη δύναμη της τεχνητής νοημοσύνης για κοινωνικό καλό.