Connect with us

Ηγέτες σκέψης

Πόσο Μακριά και Σκοτεινά Θα Πάνε τα Deepfakes;

mm

Καθώς η τεχνητή νοημοσύνη ενσωματώνεται πιο βαθιά στις καθημερινές μας ζωές, η τεχνολογία των deepfakes έχει γίνει μια αυξανόμενη ανησυχία για πολλούς, ιδιαίτερα για εκείνους που αγαπούν να μοιράζονται προσωπικές στιγμές στα κοινωνικά μέσα. Αν είναι μια βραδιά με φίλους ή ένα οικογενειακό πικνίκ στις Μπαχάμες, οι φωτογραφίες που μοιράζονται στα κοινωνικά μέσα όπως το Instagram, το Facebook και το Snapchat δεν είναι απαραίτητα ασφαλείς από πιθανή κακοποίηση.

Μια νεαρή γυναίκα από τη Κορέα πρόσφατα μίλησε στα κοινωνικά μέσα για την ταραχή της σχετικά με ένα βίντεο deepfake που δημιουργήθηκε ως πράξη εκδίκησης. Στο βίντεο, φαινόταν να είναι γυμνή. Παρακαλούσε με πάθος την αφαίρεση του βίντεο που δημιουργήθηκε με τεχνητή νοημοσύνη και ενθάρρυνε το άτομο να σταματήσει τη διανομή του.

Τον Οκτώβριο του 2023, διάσημες προσωπικότητες όπως η συνδιοργανώτρια του CBS Mornings Gayle King, ο ηθοποιός Tom Hanks και η προσωπικότητα του YouTube MrBeast ήταν θύματα μη εξουσιοδοτημένων βίντεο deepfake που εξαπλώθηκαν στα κοινωνικά μέσα. Ένα άλλο βίντεο με την δημοσιογράφο του CNN Clarissa Ward κοντά στα σύνορα Ισραήλ-Γάζας είχε τροποποιηθεί για να δημιουργήσει αμφιβολίες για την αναφορά της.

Αυτά τα βίντεο, που δημιουργήθηκαν με την τεχνολογία των deepfakes, έχουν τη δύναμη να αντικαταστήσουν άτομα σε υπάρχοντα περιεχόμενο. Η ρεαλιστική τους φύση είναι ανησυχητική, οδηγώντας πολλούς να πιστεύουν στην αυθεντικότητά τους. Αυτό περιλαμβάνει τραγούδια που δημιουργούνται με τεχνητή νοημοσύνη που μιμούνται διάσημους αστέρες, κάποια από τα οποία έχουν γίνει νούμερα 1 στα charts.

Τέτοιες εκδηλώσεις έχουν προκαλέσει παγκόσμιες ανησυχίες σχετικά με την πιθανότητα δημόσιας ντροπής, παρενόχλησης και εκβίασης, υπογραμμίζοντας περαιτέρω τη σινιστική δυνατότητα των deepfakes.

Γιατί η Τεχνολογία των Deepfakes Είναι Περισσότερο Επικίνδυνη Από Ό,τι Νομίζετε

Η αύξηση των ανησυχητικών περιστατικών υποδηλώνει την επείγουσα ανάγκη για προληπτικά μέτρα κατά των deepfakes. Hiện δεν υπάρχει καθολικός νόμος που αφορά τα deepfakes ή το μη εξουσιοδοτημένο περιεχόμενο που δημιουργείται με τεχνητή νοημοσύνη, ακόμη και στις Ηνωμένες Πολιτείες. Αν και δεν μπορούν να εξαφανιστούν εντελώς, μπορούν να ληφθούν προστατευτικά μέτρα.

Για εκείνους που δεν είναι εξοικειωμένοι, η τεχνολογία των deepfakes χρησιμοποιεί τεχνητή νοημοσύνη για να δημιουργήσει ρεαλιστικά αλλά ψευδή εικόνες, βίντεο ή ηχητικά κλιπ. Αυτή η παραπλανητική τεχνολογία κέρδισε προβολή γύρω στο 2017 όταν ένας ανώνυμος χρήστης του Reddit εισήγαγε einen αλγόριθμο για τη δημιουργία βίντεο που μοιάζουν με την πραγματικότητα.

Αν και αρχικά προοριζόταν για ψυχαγωγία, εκπαίδευση ή ακτιβισμό, η ταχεία εξέλιξη της τεχνητής νοημοσύνης, σε συνδυασμό με τις ικανότητες των deepfakes, παρουσιάζει πολλά προβλήματα ασφαλείας και ηθικής. Αυτό περιλαμβάνει:

  1. Παραβίαση της Ιδιωτικής Ζωής: Ένα πρωταρχικό πρόβλημα είναι η μη εξουσιοδοτημένη χρήση της ομοιότητας ενός ατόμου. Σημαντικά περιστατικά περιλαμβάνουν deepfake ερωτικές ταινίες διασημοτήτων, που βλάπτουν την εικόνα τους. Για παράδειγμα, το 2017, ένα ανάρμοστο βίντεο που παρουσίαζε ψευδώς την ηθοποιό Gal Gadot κυκλοφόρησε ευρέως.
  2. Δημοσιογραφική Αλήθεια και Manipulation: Τα deepfakes μπορούν να διαστρέψουν τις αλήθειες, επηρεάζοντας την κοινή γνώμη. Ένα αξιοσημείωτο παράδειγμα είναι ένα βίντεο deepfake με τον πρώην Πρόεδρο Obama, που δημιουργήθηκε από το BuzzFeed και τον Jordan Peele. Αν και προοριζόταν ως PSA ενάντια στην παραπληροφόρηση, υπογραμμίζει τη δυνατότητα κακοποίησης της τεχνολογίας.
  1. Απάτη και Εκβίαση: Αυτή η τεχνολογία μπορεί να παράγει ψευδή αποδεικτικά στοιχεία ή να εξαπατήσει μέσω της複製 φωνής/εικόνας. Εγκληματίες μπορεί να χρησιμοποιήσουν deepfakes για εκβίαση ή ακόμη και οικονομική απάτη, όπως φάνηκε όταν μια βρετανική εταιρεία ενέργειας εξαπατήθηκε να μεταφέρει một σημαντική ποσότητα, πιθανώς μέσω φωνητικών deepfakes.
  2. Προκατάληψη και Διακρίευση: Τα deepfakes μπορούν να ενισχύσουν ή να ενισχύσουν τις κοινωνικές προκαταλήψεις, πιθανώς να παρουσιάζουν λανθασμένα συγκεκριμένες δημογραφικές ομάδες.

Deepfakes: Απειλές για τη Δημοκρατία, τις Σχέσεις και την Ταυτότητα

Αν και η τεχνολογία των deepfakes δεν είναι αναπόφευκτα κακόβουλη, η κακοποίηση της μπορεί να είναι καταστροφική. Μπορεί να παραμορφώσει τις εκλογικές αποτελέσματα, να δημιουργήσει προβλήματα στις προσωπικές σχέσεις και να παραβιάσει την προσωπική ταυτότητα, όπως παρουσιάζεται σε προγράμματα ψυχαγωγίας όπως το “DeepFake Love” και το “Clickbait” του Netflix.

Συμπερασματικά

Τα deepfakes μεταμορφώνουν τον ψηφιακό κόσμο, ανοίγοντας καινοτόμους δρόμους ενώ θέτουν ηθικές προκλήσεις. Η απουσία παγκόσμιας ρύθμισης και αποτελεσματικών εργαλείων ανίχνευσης καθιστά αυτό ένα κρίσιμο ζήτημα. Αν και η ευαισθητοποίηση του κοινού και η ψηφιακή γραμματοσύνη είναι απαραίτητες, αποτελούν μόνο ένα μέρος της λύσης.

Είναι ζωτικό να σκεφτόμαστε: Θεωρούμε τα deepfakes ως τεχνολογικά θαύματα ή απειλές για την ατομική και κοινωνική ευημερία; Η συζήτηση πρέπει να συνεχιστεί, καθώς η συλλογική ευαισθητοποίηση και δράση είναι απαραίτητες για την μείωση των επιζήμιων επιπτώσεων της τεχνολογίας των deepfakes.

Είμαι ο Haris Amer, ο άνθρωπος που διευθύνει το πλοίο του περιεχομένου στη SaaSpartners και συνιδρυτής του Exploreit. Απόλυτα εθισμένος σε όλα τα πράγματα AI και αγαπώ να ψάχνω τα νούμερα και τις βίδες της τεχνητής νοημοσύνης.