Συνεντεύξεις
Alex Fink, Tech Executive, Ιδρυτής & CEO της Otherweb – Σειρά Συνεντεύξεων

Alex Fink είναι एक Tech Executive και ο Ιδρυτής και CEO της Otherweb, một Δημόσια Εταιρεία Ωφελίμου Χαρακτήρα που χρησιμοποιεί την τεχνητή νοημοσύνη για να βοηθήσει τους ανθρώπους να διαβάζουν ειδήσεις και σχόλια, να ακούν podcasts και να αναζητούν στο διαδίκτυο χωρίς paywalls, clickbait, διαφημίσεις, αυτόματα βίντεο, συνδέσμους συνεργατών ή οποιοδήποτε άλλο “σκουπίδι” περιεχόμενο. Η Otherweb είναι διαθέσιμη ως εφαρμογή (iOS και Android), ιστοσελίδα, ενημερωτικό δελτίο ή αυτόνομη επέκταση του προγράμματος περιήγησης. Πριν από την Otherweb, ο Alex ήταν Ιδρυτής και CEO της Panopteo και Συνιδρυτής και Πρόεδρος της Swarmer.
Μπορείτε να μας δώσετε μια επισκόπηση της Otherweb και της αποστολής της για τη δημιουργία ενός χώρου ειδήσεων χωρίς σκουπίδια;
Η Otherweb είναι μια δημόσια εταιρεία ωφελίμου χαρακτήρα, που δημιουργήθηκε για να βοηθήσει στην βελτίωση της ποιότητας των πληροφοριών που καταναλώνουν οι άνθρωποι.
Το κύριο προϊόν μας είναι μια εφαρμογή ειδήσεων που χρησιμοποιεί την τεχνητή νοημοσύνη για να φιλτράρει τα σκουπίδια και να επιτρέπει στους χρήστες απεριόριστες προσαρμογές – ελέγχοντας κάθε κατώτατο όριο ποιότητας και κάθε μηχανισμό ταξινόμησης που χρησιμοποιεί η εφαρμογή.
Με άλλα λόγια, ενώ ο υπόλοιπος κόσμος δημιουργεί αλγόριθμους μαύρης κούτας για να μεγιστοποιήσει την εμπλοκή του χρήστη, θέλουμε να δώσουμε στους χρήστες όσο το δυνατόν περισσότερη αξία σε όσο το δυνατόν λιγότερο χρόνο, και κάνουμε τα πάντα προσαρμόσιμα. Μême έχουμε κάνει τα μοντέλα και τα σύνολα δεδομένων της τεχνητής νοημοσύνης μας πηγαία, ώστε οι άνθρωποι να μπορούν να δουν ακριβώς τι κάνουμε και πώς αξιολογούμε το περιεχόμενο.
Τι σας ενέπνευσε να εστιάσετε στην καταπολέμηση της παραπληροφόρησης και των ψευδών ειδήσεων χρησιμοποιώντας την τεχνητή νοημοσύνη;
Γεννήθηκα στη Σοβιετική Ένωση και είδα τι συμβαίνει σε μια κοινωνία όταν όλοι καταναλώνουν προπαγάνδα, και κανείς δεν έχει ιδέα τι συμβαίνει στον κόσμο. Έχω ζωντανούς μνήμες των γονιών μου να ξυπνούν στις 4 το πρωί, να κλειδώνουν τον εαυτό τους στο ντουλάπι και να βάζουν το ραδιόφωνο για να ακούσουν τη Φωνή της Αμερικής. Ήταν παράνομο, φυσικά, γι’ αυτό το έκαναν τη νύχτα και έβαλαν φροντίδα οι γείτονες να μην ακούσουν – αλλά μας έδωσε πρόσβαση σε πραγματικές πληροφορίες.
Στην πραγματικότητα, θυμάμαι να βλέπω φωτογραφίες από τανκς στο δρόμο όπου μεγάλωσα και να σκέφτομαι “αυτό είναι τι αξίζει η πραγματική πληροφορία”.
Θέλω περισσότεροι άνθρωποι να έχουν πρόσβαση σε πραγματικές, υψηλής ποιότητας πληροφορίες.
Πόσο σημαντική είναι η απειλή των deepfakes, ιδιαίτερα στο контέκστ της επιρροής των εκλογών; Μπορείτε να μοιραστείτε συγκεκριμένα παραδείγματα για το πώς οι deepfakes έχουν χρησιμοποιηθεί για τη διάδοση παραπληροφόρησης και την επίδραση που είχαν;
Στο βραχύ χρονικό διάστημα, είναι μια πολύ σοβαρή απειλή.
Οι ψηφοφόροι δεν συνειδητοποιούν ότι τα βίντεο και τα ηχητικά εγγραφά peuvent πλέον να θεωρηθούν αξιόπιστα. Νομίζουν ότι το βίντεο είναι απόδειξη ότι κάτι συνέβη, και πριν από 2 χρόνια αυτό ήταν ακόμη αλήθεια, αλλά τώρα δεν είναι πλέον ο caso.
Φέτος, στο Πακιστάν, οι ψηφοφόροι του Imran Khan έλαβαν κλήσεις από τον Imran Khan τον ίδιο, προσωπικά, ζητώντας τους να μποϋκοτάρουν τις εκλογές. Ήταν ψεύτικο, φυσικά, αλλά πολλοί άνθρωποι το πίστεψαν.
Οι ψηφοφόροι στην Ιταλία είδαν μια από τις γυναικείες πολιτικούς να εμφανίζεται σε ένα πορνογραφικό βίντεο. Ήταν ψεύτικο, φυσικά, αλλά μέχρι που η ψευτικότητα αποκαλύφθηκε – η ζημιά είχε ήδη γίνει.
ΕVEN εδώ στην Αριζόνα, είδαμε ένα ενημερωτικό δελτίο να διαφημίζει τον εαυτό του δείχνοντας ένα βίντεο με την Kari Lake. Δεν είχε ενδορείσει ποτέ, φυσικά, αλλά το ενημερωτικό δελτίο ακόμη έλαβε χιλιάδες συνδρομητές.
Έτσι, μέχρι τον Νοέμβριο, νομίζω ότι είναι σχεδόν αναπόφευκτο ότι θα δούμε τουλάχιστον ένα ψεύτικο σκανδάλο. Και είναι πολύ πιθανό να πέσει ακριβώς πριν τις εκλογές και να αποκαλυφθεί ως ψεύτικο αμέσως μετά τις εκλογές – όταν η ζημιά έχει ήδη γίνει.
Πόσο αποτελεσματικά είναι τα τρέχοντα εργαλεία AI στο να αναγνωρίζουν τις deepfakes, και ποίες βελτιώσεις προβλέπετε στο μέλλον;
Στον παρελθόν, ο καλύτερος τρόπος για να αναγνωρίσετε ψεύτικα εικόνες ήταν να μεγενθύνετε και να ψάξετε για τα χαρακτηριστικά λάθη (aka “αρτεφάκτα”) που οι δημιουργοί εικόνων είχαν τη τάση να κάνουν. Λάθος φωτισμός, λείπουν σκιές, ανώμαλοι άκρες σε ορισμένα αντικείμενα, υπερ-συμπίεση γύρω από τα αντικείμενα, κ.λπ.
Το πρόβλημα με την επεξεργασία GAN (aka “deepfake”) είναι ότι κανένα από αυτά τα συνήθη αρτεφάκτα δεν είναι παρόν. Ο τρόπος με τον οποίο λειτουργεί η διαδικασία είναι ότι ένα μοντέλο AI επεξεργάζεται την εικόνα, και ένα άλλο μοντέλο AI ψάχνει για αρτεφάκτα και τα δείχνει – και ο κύκλος επαναλαμβάνεται πολλές φορές μέχρι να μην υπάρχουν αρτεφάκτα.
Ως αποτέλεσμα, δεν υπάρχει γενικά τρόπος να αναγνωρίσετε μια καλά φτιαγμένη deepfake εικόνα με το να κοιτάξετε το περιεχόμενο της.
Πρέπει να αλλάξουμε την στάση μας, και να αρχίσουμε να υποθέτουμε ότι το περιεχόμενο είναι πραγματικό μόνο αν μπορούμε να ανατρέξουμε την αλυσίδα κατοχής του πίσω στην πηγή. Σκεφτείτε το σαν δακτυλικά αποτυπώματα. Το να βλέπετε δακτυλικά αποτυπώματα στο όπλο του εγκλήματος δεν είναι αρκετό. Πρέπει να ξέρετε ποιος βρήκε το όπλο, ποιος το έφερε πίσω στο δωμάτιο αποθήκευσης, κ.λπ – πρέπει να μπορείτε να ανατρέξετε κάθε φορά που άλλαξε χέρια και να βεβαιωθείτε ότι δεν είχε υποστεί καμία αλλοίωση.
Ποίες μέτρες μπορούν να ληφθούν από τις κυβερνήσεις και τις εταιρείες τεχνολογίας για να αποτρέψουν τη διάδοση της παραπληροφόρησης κατά τις κρίσιμες στιγμές όπως οι εκλογές;
Το καλύτερο αντίδοτο στην παραπληροφόρηση είναι ο χρόνος. Αν δείτε κάτι που αλλάζει τα πάντα, μην βγάζετε ταχύτατα – πάρτε μια ή δύο μέρες για να επιβεβαιώσετε ότι είναι πραγματικά αλήθεια.
Δυστυχώς, αυτή η προσέγγιση συγκρούεται με το επιχειρηματικό μοντέλο των μέσων ενημέρωσης, το οποίο ανταμείβει τους κλικ ακόμη και αν το υλικό αποδειχθεί ψευδές.
Πώς η Otherweb αξιοποιεί την τεχνητή νοημοσύνη για να διασφαλίσει την αυθεντικότητα και την ακρίβεια των ειδήσεων που συλλέγει;
Έχουμε βρει ότι υπάρχει μια ισχυρή συσχέτιση μεταξύ ορθότητας και μορφής. Οι άνθρωποι που θέλουν να πουν την αλήθεια έχουν τη τάση να χρησιμοποιούν μια γλώσσα που τονίζει την αυτοσυγκράτηση και την ταπείνωση, ενώ οι άνθρωποι που αγνοούν την αλήθεια προσπαθούν να προσελκύσουν όσο το δυνατόν περισσότερη προσοχή.
Η Otherweb εστιάζει κυρίως στην έλεγχο της μορφής. Επιλέγουμε άρθρα που αποφεύγουν τη γλώσσα που προσελκύει την προσοχή, παρέχουν εξωτερικές αναφορές για κάθε αξίωση, εκφράζουν τα πράγματα όπως είναι, και δεν χρησιμοποιούν τεχνικές πειθούς.
Αυτή η μέθοδος δεν είναι τέλεια, φυσικά, και σε θεωρία ένας κακός ηθοποιός θα μπορούσε να γράψει ένα ψέμα με τον ακριβή τρόπο που τα μοντέλα μας ανταμείβουν. Αλλά στην πράξη, απλά δεν συμβαίνει. Οι άνθρωποι που θέλουν να πουν ψέματα cũng θέλουν πολλή προσοχή – αυτό είναι το πράγμα που έχουμε διδάξει τα μοντέλα μας να ανιχνεύουν και να φιλτράρουν.
Με την αυξανόμενη δυσκολία να διακρίνουμε το πραγματικό από το ψεύτικο, πώς μπορούν οι πλατφόρμες όπως η Otherweb να βοηθήσουν στην αποκατάσταση της εμπιστοσύνης των χρηστών στο ψηφιακό περιεχόμενο;
Ο καλύτερος τρόπος για να βοηθήσετε τους ανθρώπους να καταναλώσουν καλύτερο περιεχόμενο είναι να δειγματοληψούν από όλες τις πλευρές, να επιλέξουν το καλύτερο από κάθε μια, και να ασκήσουν πολλή αυτοσυγκράτηση. Τα περισσότερα μέσα ενημέρωσης βιάζονται να δημοσιεύσουν ανεπιβεβαίωτες πληροφορίες αυτές τις μέρες. Η ικανότητά μας να ανατρέξουμε πληροφορίες από εκατοντάδες πηγές και να εστιάσουμε στα καλύτερα στοιχεία μας επιτρέπει να προστατεύουμε τους χρήστες μας από τις περισσότερες μορφές παραπληροφόρησης.
Τι ρόλο παίζει η μετα-δεδομένα, όπως τα πρότυπα C2PA, στην επαλήθευση της αυθεντικότητας των εικόνων και των βίντεο;
Είναι η μόνη βιώσιμη λύση. Τα πρότυπα C2PA μπορεί ή δεν μπορεί να είναι το σωστό πρότυπο, αλλά είναι σαφές ότι ο μόνος τρόπος να επικυρωθεί αν το βίντεο που βλέπετε αντανακλά κάτι που πραγματικά συνέβη στην πραγματικότητα, είναι να α) διασφαλίσετε ότι η κάμερα που χρησιμοποιήθηκε για να καταγράψει το βίντεο ήταν μόνο καταγραφή, και όχι επεξεργασία, και β) να διασφαλίσετε ότι κανείς δεν επεξεργάστηκε το βίντεο μετά την αποχώρησή του από την κάμερα. Ο καλύτερος τρόπος να το κάνετε αυτό είναι να εστιάσετε στην μετα-δεδομένα.
Τι μελλοντικές εξελίξεις προβλέπετε στην καταπολέμηση της παραπληροφόρησης και των deepfakes;
Νομίζω ότι, μέσα σε 2-3 χρόνια, οι άνθρωποι θα προσαρμοστούν στην νέα πραγματικότητα και θα αλλάξουν την στάση τους. Πριν από τον 19ο αιώνα, η καλύτερη μορφή απόδειξης ήταν η μαρτυρία των μαρτύρων. Τα deepfakes είναι πιθανό να μας κάνουν να επιστρέψουμε σε αυτά τα δοκιμασμένα και αληθινά πρότυπα.
Με την παραπληροφόρηση πιο ευρύτερα, πιστεύω ότι είναι αναγκαίο να λάβουμε μια πιο νюανσική άποψη και να ξεχωρίσουμε την παραπληροφόρηση (δηλ. ψευδείς πληροφορίες που δημιουργούνται εκ προθέσεως για να εξαπατήσουν) από τα σκουπίδια (δηλ. πληροφορίες που δημιουργούνται για να монεταριστούν, ανεξάρτητα από την αλήθεια τους).
Το αντίδοτο στα σκουπίδια είναι ένα μηχανισμό φιλτραρίσματος που κάνει τα σκουπίδια λιγότερο πιθανό να εξαπλωθούν. Θα άλλαζε την δομή κινήτρων που κάνει τα σκουπίδια να εξαπλωθούν σαν πυρκαγιά. Η παραπληροφόρηση θα εξακολουθήσει να υπάρχει, όπως έχει πάντα υπάρξει. Έχουμε能够 να την αντιμετωπίσουμε καθ’ όλη τη διάρκεια του 20ου αιώνα, και θα μπορούμε να την αντιμετωπίσουμε στον 21ο.
Είναι η πλημμύρα των σκουπιδιών που πρέπει να ανησυχούμε, επειδή αυτό είναι το μέρος που δεν είμαστε εξοπλισμένοι να χειριστούμε τώρα. Αυτό είναι το κύριο πρόβλημα που πρέπει να αντιμετωπίσουμε η ανθρωπότητα.
Μόλις αλλάξουμε τις κινήτρεις, το λόγο σήματος προς θόρυβο του διαδικτύου θα βελτιωθεί για όλους.












