Ηγέτες σκέψης
Το 2024, τα Deepfakes Έρχονται στο Προσκήνιο. Δείτε Πώς οι Επιχειρήσεις Μπορούν να Προστατεύσουν τον Εαυτό τους

Από τουλάχιστον τις εκλογές του 2016, όταν οι ανησυχίες σχετικά με την παραπληροφόρηση εξερράγησαν στη δημόσια συνείδηση, οι εμπειρογνώμονες ήχησαν τον κώδωνα του κινδύνου για τα deepfakes. Οι επιπτώσεις αυτής της τεχνολογίας ήταν – και παραμένουν – τρομακτικές. Η ανεξέλεγκτη διάδοση υπερ-ρεαλιστικών συνθετικών μέσων αποτελεί απειλή για όλους – από πολιτικούς έως καθημερινούς ανθρώπους. Σε ένα εύφλεκτο περιβάλλον που ήδη χαρακτηρίζεται από ευρεία αμφισβήτηση, τα deepfakes υποσχέθηκαν να αναπτήξουν τις φλόγες περαιτέρω.
Όπως αποδείχθηκε, οι φόβοι μας ήταν προωριανοί. Η τεχνολογική εξειδίκευση που απαιτείται για την δημιουργία deepfakes, σε συνδυασμό με την συχνά κακή ποιότητά τους, σήμαινε ότι για τουλάχιστον τις δύο τελευταίες προεδρικές εκλογικές διαδικασίες, παρέμειναν ένα ελάχιστο πρόβλημα.
Αλλά όλα αυτά είναι έτοιμα να αλλάξουν – αλλάζουν ήδη. Τα τελευταία δύο χρόνια, η τεχνολογία του γενετικού AI έχει εισέλθει στο mainstream, απλοποιώντας δραματικά τη διαδικασία δημιουργίας deepfakes για τον μέσο καταναλωτή. Οι ίδιες καινοτομίες έχουν αυξήσει σημαντικά την ποιότητα των deepfakes, так ώστε, σε ένα τυφλό τεστ, οι περισσότεροι άνθρωποι δεν θα μπορούσαν να διακρίνουν ένα ψευτοποιημένο βίντεο από το πραγματικό.
Φέτος, ιδιαίτερα, αρχίζουμε να βλέπουμε ενδείξεις για το πώς αυτή η τεχνολογία μπορεί να επηρεάσει την κοινωνία αν δεν ληφθούν μέτρα για την καταπολέμησή της. Πχ, το προηγούμενο έτος, μια φωτογραφία του Πάπα Φραγκίσκου που φορούσε ένα ασυνήθιστα στυλάτο παλτό έγινε viral και θεωρήθηκε αυθεντική από πολλούς. Ενώ αυτό μπορεί να φαίνεται, σε ένα επίπεδο, σαν ένα αθώο κομμάτι διασκέδασης, αποκαλύπτει την επικίνδυνη δύναμη των deepfakes και πόσο δύσκολο είναι να εμποδιστεί η παραπληροφόρηση μια φορά που έχει αρχίσει να εξαπλώνεται. Μπορούμε να περιμένουμε να βρούμε λιγότερο διασκεδαστικά – και πολύ πιο επικίνδυνα – παραδείγματα αυτού του είδους της ιογενούς ψευτοποίησης στα επόμενα μήνες και χρόνια.
Γι’ αυτό, είναι απαραίτητο ότι οι οργανισμοί κάθε είδους – από τα μέσα ενημέρωσης μέχρι τις τραπεζικές και τις κυβερνητικές υπηρεσίες έως τις πλατφόρμες κοινωνικών μέσων – να λάβουν μια προληπτική στάση προς την ανίχνευση deepfakes και την επαλήθευση της αυθεντικότητας του περιεχομένου. Một πολιτιστική ατμόσφαιρα της εμπιστοσύνης μέσω προφυλάξεων πρέπει να καθιερωθεί τώρα, πριν από μια τσουνάμι deepfakes μπορεί να σβήσει την κοινή μας κατανόηση της πραγματικότητας.
Κατανόηση της απειλής των deepfakes
Πριν από το να εμβαθύνουμε σε αυτό που μπορούν να κάνουν οι οργανισμοί για να καταπολεμήσουν αυτή την αύξηση των deepfakes, αξίζει να διευκρινίσουμε γιατί είναι απαραίτητοτα εργαλεία προστασίας. Συνήθως, εκείνοι που ανησυχούν για τα deepfakes αναφέρουν την πιθανή επίδρασή τους στην πολιτική και την κοινωνική εμπιστοσύνη. Αυτές οι πιθανές συνέπειες είναι εξαιρετικά σημαντικές και δεν πρέπει να αγνοηθούν σε καμία συζήτηση για τα deepfakes. Αλλά, όπως αποδείχθηκε, η άνοδος αυτής της τεχνολογίας έχει πιθανώς καταστροφικές επιπτώσεις σε πολλαπλά τμήματα της αμερικανικής οικονομίας.
Πάρτε, για παράδειγμα, τις ασφαλιστικές εταιρείες. Αυτή τη στιγμή, η ετήσια ασφαλιστική απάτη στις Ηνωμένες Πολιτείες ανέρχεται σε 308,6 δισεκατομμύρια δολάρια – ένα ποσό που είναι περίπου ένα τέταρτο τόσο μεγάλο όσο ολόκληρος ο κλάδος. Ταυτόχρονα, οι πίσω επιχειρησιακές διαδικασίες των περισσότερων ασφαλιστικών εταιρειών αυτοματοποιούνται ολοένα και περισσότερο, με 70% των τυπικών αιτημάτων να προβλέπεται ότι θα είναι άφωνα μέχρι το 2025. Αυτό σημαίνει ότι οι αποφάσεις λαμβάνονται ολοένα και περισσότερο με ελάχιστη ανθρώπινη παρέμβαση:.self-service στην πλευρά του πελάτη και αυτοματοποίηση με τη βοήθεια του AI στην πίσω πλευρά.
Παραδόξως, η ίδια τεχνολογία που επέτρεψε αυτή την αύξηση της αυτοματοποίησης – δηλαδή, η μηχανική μάθηση και το τεχνητό νοήμον – έχει εγγυημένα την εκμετάλλευσή της από κακόβουλους ηθοποιούς. Είναι τώρα πιο εύκολο για τον μέσο άνθρωπο να χειραγωγεί αιτήματα – για παράδειγμα, χρησιμοποιώντας προγράμματα γενετικού AI όπως Dall-E, Midjourney ή Stable Diffusion για να κάνει ένα αυτοκίνητο να φαίνεται πιο ζημιωμένο από ότι είναι. Ήδη, υπάρχουν εφαρμογές που exist ειδικά για αυτόν τον σκοπό, όπως το Dude Your Car!, το οποίο επιτρέπει στους χρήστες να δημιουργούν τεχνητά δίς σε φωτογραφίες των οχημάτων τους.
Το ίδιο ισχύει και για τα επίσημα έγγραφα, τα οποία μπορούν τώρα να χειραγωγηθούν εύκολα – με τιμολόγια, αξιολογήσεις underwriting και ακόμη και υπογραφές να調整ονται ή να εφευρίσκονται ολόκληρα. Αυτή η ικανότητα είναι πρόβλημα όχι μόνο για τις ασφαλιστικές εταιρείες αλλά και σε ολόκληρη την οικονομία. Είναι πρόβλημα για τις τραπεζικές ιδρύματα, τα οποία πρέπει να επαλήθευουν την αυθεντικότητα ενός ευρέος φάσματος εγγράφων. Είναι πρόβλημα για τους λιανοπωλητές, οι οποίοι μπορεί να λάβουν μια καταγγελία ότι ένα προϊόν έφτασε ελαττωματικό, συνοδευόμενο από μια ψευτοποιημένη εικόνα.
Οι επιχειρήσεις απλά δεν μπορούν να λειτουργήσουν με αυτό το επίπεδο αβεβαιότητας. Κάποιο βαθμό απάτης είναι πιθανό να είναι πάντα αναπόφευκτος, αλλά με τα deepfakes, δεν μιλάμε για απάτη στα περιθώρια – μιλάμε για μια πιθανή επιγνώμων καταστροφή, στην οποία οι επιχειρήσεις δεν έχουν κανένα σαφές μέσο για να διακρίνουν την αλήθεια από το ψέμα και να χάνουν δισεκατομμύρια δολάρια σε αυτή την σύγχυση.
Πόλεμος με το ίδιο όπλο: πώς το AI μπορεί να βοηθήσει
Τι μπορεί να γίνει, λοιπόν, για να καταπολεμηθεί αυτό; Ίσως δεν είναι απρόσμενο, η απάντηση βρίσκεται στη ίδια τεχνολογία που διευκολύνει τα deepfakes. Αν θέλουμε να σταματήσουμε αυτή την πληγή πριν συσσωρευτεί περισσότερη ορμή, πρέπει να πολεμήσουμε το πύρ με πύρ. Το AI μπορεί να βοηθήσει στη δημιουργία deepfakes – αλλά μπορεί επίσης, ευτυχώς, να βοηθήσει στην ανίχνευση τους αυτόματα και σε κλίμακα.
Χρησιμοποιώντας τα σωστά εργαλεία AI, οι επιχειρήσεις μπορούν να καθορίσουν αυτόματα εάν μια δεδομένη φωτογραφία, βίντεο ή έγγραφο έχει τροποποιηθεί. Φέρνοντας δεκάδες διαφορετικά μοντέλα στην εργασία της αναγνώρισης ψευδών, το AI μπορεί να inform τις επιχειρήσεις αυτόματα εάν μια δεδομένη φωτογραφία ή βίντεο είναι ύποπτο. Όπως τα εργαλεία που οι επιχειρήσεις έχουν ήδη αναπτύξει για την αυτοματοποίηση των καθημερινών λειτουργιών, αυτά τα εργαλεία μπορούν να τρέχουν στο παρασκήνιο χωρίς να επιβαρύνουν το υπερφορτωμένο προσωπικό ή να αφαιρέσουν χρόνο από σημαντικά projects.
Εάν και όταν μια φωτογραφία αναγνωριστεί ως πιθανώς τροποποιημένη, το ανθρώπινο προσωπικό μπορεί τότε να ειδοποιηθεί και να αξιολογήσει το πρόβλημα trực tiếp, με τη βοήθεια των πληροφοριών που παρέχονται από το AI. Χρησιμοποιώντας deep-scan ανάλυση, μπορεί να πει στις επιχειρήσεις γιατί πιστεύει ότι μια φωτογραφία έχει πιθανότατα τροποποιηθεί – δείχνοντας, για παράδειγμα, χειροποίητα τροποποιημένα metadata, την ύπαρξη ίδιων εικόνων στο διαδίκτυο, διάφορες φωτογραφικές ανωμαλίες, κ.λπ.
Καθόλου από αυτά δεν υποβαθμίζει τις απίστευτες προόδους που έχουμε δει στη γενετική τεχνολογία AI τα τελευταία χρόνια, οι οποίες έχουν χρήσιμες και παραγωγικές εφαρμογές σε διάφορους κλάδους. Αλλά η ίδια η δύναμη – και η απλότητα – αυτής της αναδυόμενης τεχνολογίας几乎 εγγυάται την εκμετάλλευσή της από εκείνους που επιδιώκουν να χειραγωγήσουν τους οργανισμούς, είτε για προσωπικό κέρδος είτε για να σπείρουν κοινωνική αναρχία.
Οι οργανισμοί μπορούν να έχουν τα καλύτερα και από τα δύο κόσμια: τα οφέλη της παραγωγικότητας του AI χωρίς τις負ες των πανταχού παρουσιαζόμενων deepfakes. Αλλά αυτό απαιτεί ένα νέο βαθμό επιγνώσεων, ιδιαίτερα δεδομένου του γεγονότος ότι οι έξοδοι της γενετικής AI γίνονται ολοένα και πιο πειστικές, λεπτομερείς και ζωηρές με την πάροδο της ημέρας. Όσο νωρίτερα οι οργανισμοί στρέψουν την προσοχή τους σε αυτό το πρόβλημα, τόσο νωρίτερα θα μπορέσουν να απολαύσουν τα πλήρη οφέλη ενός αυτοματοποιημένου κόσμου.










