Ηγέτες σκέψης
Πώς το AI του Facebook Διαδίδει Λανθασμένες Πληροφορίες και Απειλεί τη Δημοκρατία

Ο Dan Tunkelang, ο οποίος επόπτευε την έρευνα για το AI στο LinkedIn, δήλωσε: «Τη στιγμή που οι συστάσεις έχουν τη δύναμη να επηρεάσουν τις αποφάσεις, γίνονται στόχος για τους spammer, τους απατεώνες και άλλους ανθρώπους με λιγότερο ευγενείς προθέσεις.”
Αυτή είναι η δίλημμα που βιώνουν οι εταιρείες κοινωνικών μέσων, όπως το Facebook. Το Facebook χρησιμοποιεί συνειδητή ανάδραση για να παρακολουθήσει τα κλικ, τις προβολές και άλλες μετρήσιμες συμπεριφορές των χρηστών. Αυτό χρησιμοποιείται για να σχεδιαστεί αυτό που ονομάζεται “μηχανισμός συστάσεων”, ένα σύστημα AI που έχει τη μέγιστη εξουσία στη λήψη αποφάσεων για το ποιος βλέπει ποιο περιεχόμενο και πότε.
Το Facebook έχει βελτιστοποιήσει τον μηχανισμό συστάσεων του για να μεγιστοποιήσει την εμπλοκή του χρήστη, η οποία μετράται από το χρόνο που περνά ο χρήστης στο平台 του Facebook. Η μεγιστοποίηση του χρόνου έχει προτεραιότητα έναντι οποιουδήποτε άλλου متριασμού, συμπεριλαμβανομένης της ποιότητας ή της ακρίβειας του συνιστώμενου περιεχομένου.
Το σύστημα είναι σχεδιασμένο για να ανταμείβει τις αισθησιακές επικεφαλίδες που ενεργοποιούν τους χρήστες, εκμεταλλευόμενο τις γνωστικές προκαταλήψεις, ακόμη και αν αυτές οι επικεφαλίδες γράφονται από Ρώσους trolls με σκοπό τη διάσπαση της κοινωνίας ή την επίδραση στις πολιτικές εκλογές.
Πώς το Facebook Χρησιμοποιεί το AI
Υπάρχει έλλειψη ευαισθητοποίησης σχετικά με το πώς το Facebook χρησιμοποιεί το AI για να αποφασίσει τι θα δουν και θα αλληλεπιδράσουν οι χρήστες. Πρέπει πρώτα να κατανοήσουμε τι είναι η επιβεβαίωση προκατάληψης. Η Psychology Today περιγράφει αυτό ως:
Η επιβεβαίωση προκατάληψης είναι η τάση να αναζητάτε, να ερμηνεύετε, να ευνοείτε και να θυμάστε πληροφορίες με τρόπο που επιβεβαιώνει ή υποστηρίζει τις προηγούμενες πιστεύω ή αξίες σας.
Το Facebook κατανοεί ότι οι χρήστες είναι πιο πιθανό να κάνουν κλικ σε ειδήσεις που ταιριάζουν στην ανθρώπινη τάση να αναζητούν επιβεβαίωση προκατάληψης. Αυτό θέτει một επικίνδυνο προηγούμενο για τη διάδοση θεωριών συνωμοσίας και τη δημιουργία εχο-θαλάμων, όπου οι χρήστες τρέφονται αποκλειστικά με αυτό που θέλουν να δουν, ανεξάρτητα από την ακρίβεια ή τον κοινωνικό αντίκτυπο του περιεχομένου.
Μια μελέτη του MIT pudo να δείξει ότι τα ψευδή νέα στο Twitter διαδίδονται 6 φορές πιο γρήγορα από τα αληθινά νέα.
Αυτό σημαίνει ότι και το Twitter και το Facebook μπορούν να χρησιμοποιηθούν ως όπλα. Ενώ το Twitter επιτρέπει σε οποιονδήποτε να ακολουθήσει συνειδητά feeds με στενές ή προκατειλημμένες απόψεις, το Facebook πηγαίνει ένα βήμα παραπέρα. Ένας χρήστης στο Facebook δεν έχει τρόπο να ελέγξει ή να μετρήσει τι βλέπει, αυτό ελέγχεται αποκλειστικά από τον μηχανισμό συστάσεων του Facebook, τον τρόπο με τον οποίο μετρά την εμπλοκή του χρήστη και τον τρόπο με τον οποίο βελτιστοποιεί αυτήν την εμπλοκή.
Το Facebook προσπαθεί να διαμορφώσει και να προβλέψει τις επιθυμίες των χρηστών. Το Facebook εκτιμά το βαθμό στον οποίο ένας χρήστης θα喜欢 ή δεν θα喜欢 ένα άρθρο ειδήσεων που δεν έχει ακόμη εμπειρία. Για να αποφευχθεί η απώλεια της εμπλοκής του χρήστη, το Facebook επιλέγει να παραλείψει άρθρα ειδήσεων που μπορεί να μειώσουν το επίπεδο της εμπλοκής και αντ’ αυτού να ενεργοποιήσει τον χρήστη με άρθρα ειδήσεων που ταιριάζουν στην επιβεβαίωση προκατάληψης, εξασφαλίζοντας περισσότερα κλικ, σχόλια, likes και shares.
Το Facebook χρησιμοποιεί επίσης αυτοματοποιημένη συνεργατική φιλτράρισή ιστορικών ενεργειών και απόψεων χρηστών για να ταιριάξει αυτόματα τους συμμετέχοντες (φίλους) με παρόμοιες απόψεις. Το Facebook χρησιμοποιεί μια χρησιμότητα που προβλέπει και κατατάσσει μαθηματικά τις προτιμήσεις σας για αντικείμενα που θέλετε να δείτε.
Αυτό προκαλεί στους χρήστες να πέσουν σε einen λαγότοπο, είναι παγιδευμένοι σε ψευδείς ειδήσεις, τρέφονται με περιεχόμενο που ενισχύει τις προκαταλήψεις τους. Το περιεχόμενο που παρουσιάζεται είναι εγγενώς σχεδιασμένο με στόχο την επίδραση στο τι κάνετε κλικ. Αν πιστεύετε τη θεωρία συνωμοσίας ότι ο Μπιλ Γκέιτς προσπαθεί να μικροτσιπιάσει τον ανθρώπινο πληθυσμό χρησιμοποιώντας εμβόλια, γιατί το Facebook να σας παρουσιάσει αντίθετες αποδείξεις που μπορεί να σας κάνουν να αποσυνδεθείτε από την πλατφόρμα; Αν υποστηρίζετε έναν bestimmten πολιτικό υποψήφιο, γιατί το Facebook να σας προσφέρει ειδήσεις που μπορεί να αντικρούσουν τις θετικές απόψεις σας για αυτόν τον ίδιο υποψήφιο;
Όπως αν αυτό δεν ήταν αρκετό, το Facebook εμπλέκει επίσης το που ονομάζεται “κοινωνική απόδειξη”. Η κοινωνική απόδειξη είναι η концепτός ότι οι άνθρωποι θα ακολουθήσουν τις ενέργειες των μαζών. Η ιδέα είναι ότι既然 τόσες πολλές άλλες άνθρωποι συμπεριφέρονται με έναν bestimmten τρόπο, πρέπει να είναι η σωστή συμπεριφορά.
Το Facebook παρέχει αυτήν την κοινωνική απόδειξη στο πλαίσιο των likes, σχολίων ή shares.既然 μόνο ορισμένοι φίλοι μπορεί να δουν το αντικείμενο του newsfeed (εκτός αν ψάξουν συγκεκριμένα τον newsfeed ενός χρήστη), η κοινωνική απόδειξη απλά ενισχύει την επιβεβαίωση προκατάληψης.
Το Facebook χρησιμοποιεί επίσης φίλτρα φυσαλίδων για να περιοριστεί η έκθεση σε αντικρουόμενες, αντίθετες και προκλητικές απόψεις.
Διαφημίσεις του Facebook
Οι ανυποψίαστοι χρήστες του Facebook μπορεί να κάνουν κλικ σε διαφημίσεις χωρίς να είναι επίγνωση ότι τους παρουσιάζονται διαφημίσεις. Ο λόγος για αυτό είναι απλός, αν υπάρχει μια διαφήμιση μόνο ο πρώτος χρήστης που της παρουσιάζεται θα δει την διαφήμιση. Αν ο χρήστης μοιράζεται τη διαφήμιση, όλοι οι φίλοι του βλέπουν τη “μοιρασιά” ως αντικείμενο του newsfeed, καθώς το Facebook σκόπιμα αφαιρεί την διαφήμιση. Αμέσως, οι χρήστες αφαιρούν την προστασία τους, δεν μπορούν να διακρίνουν τι είναι διαφήμιση και τι θα εμφανιζόταν οργανικά στο newsfeed τους.
Μοιρασίες του Facebook
Δυστυχώς, τα πράγματα χειροτερεύουν. Αν ένας χρήστης έχει 1000 φίλους που μοιράζονται ταυτόχρονα περιεχόμενο, ο μηχανισμός συστάσεων θα προτεραιότητα το περιεχόμενο από την μειοψηφία που μοιράζεται τις ίδιες απόψεις, ακόμη και αν αυτές αποτελούν ανεπιβεβαίωτες θεωρίες συνωμοσίας. Ο χρήστης θα είναι υπό την ψευδαίσθηση ότι αυτά τα αντικείμενα του newsfeed βλέπονται από όλους. Με την αλληλεπίδραση με αυτό το newsfeed, αυτοί οι χρήστες βελτιστοποιούν την κοινωνική απόδειξη ο ένας για τον άλλον.
Αν ένας χρήστης προσπαθήσει να ενημερώσει έναν άλλον χρήστη για ένα παραπλανητικό ή ψευδές αντικείμενο, η ίδια η ενέργεια της σχολιασμού ή της αλληλεπίδρασης με το newsfeed αυξάνει τον χρόνο εμπλοκής του αρχικού χρήστη. Αυτή η ανάδραση προκαλεί το Facebook να ενισχύσει την αλληλεπίδραση του χρήστη με πρόσθετα ψευδή νέα.
Αυτό προκαλεί einen εχο-θάλαμο, μια φυσαλίδα φίλτρου όπου ένας χρήστης εκπαιδεύεται να πιστεύει μόνο σε αυτό που βλέπει. Η αλήθεια είναι απλά μια ψευδαίσθηση.
Σοβαρότητα του Ζητήματος
Περισσότεροι από 10 εκατομμύρια άνθρωποι αλληλεπιδράσαν με ένα newsfeed που ισχυρίστηκε ότι ο Πάπας Φραγκίσκος εξέφρασε την υποστήριξή του για την εκλογή του Trump το 2016. Δεν υπήρχε απόδειξη για αυτό, ήταν απλά μια ψευδή ιστορία ειδήσεων που προήλθε από τη Ρωσία, αλλά αυτό ήταν η πιο κοινοποιημένη ιστορία ειδήσεων στο Facebook στους τρεις μήνες πριν από τις εκλογές του 2016.
Το αντικείμενο του newsfeed δημιουργήθηκε από einen Ρώσο troll farm που ονομάζεται “Internet Research Agency”. Αυτή η ίδια οργάνωση ήταν υπεύθυνη για την προώθηση και τη μοιρασιά σε Twitter και Facebook άρθρων που προκαλούσαν расизμό, υπέρ της δαιμονοποίησης του Black Lives Matter, και όπλισαν ψευδείς ειδήσεις που διάδιδαν ψευδείς ισχυρισμούς για Αμερικανούς πολιτικούς.
Η Επιτροπή Επιλογής Ευφυίας εξέδωσε einen 85-σελίδων αναφορά που περιγράφει Ρωσικές Ενεργές Μέτρας Καμπάνιας και Παρέμβαση, το μεγαλύτερο μέρος της οποίας αφορούσε τη διάδοση διαιρετικών ψευδών ειδήσεων και προπαγάνδας που είχε ως μοναδικό σκοπό την επίδραση στις εκλογές του 2016 στις ΗΠΑ.
Συνεχίζοντας στις εκλογές του 2020, το πρόβλημα έχει μόνο ενταθεί. Σε Σεπτέμβριο, 2020, μετά από einen συμβουλή του FBI, το Facebook και το Twitter τερμάτισαν τους λογαριασμούς κοινωνικών μέσων για einen εφημερίδα που ονομάζεται PeaceData, η οποία συνδέεται με τις κρατικές προσπάθειες προπαγάνδας της Ρωσίας.
Δυστυχώς, η διακοπή των λογαριασμών είναι μια προσωρινή και αναποτελεσματική λύση. Οι Ρώσοι λογαριασμοί συχνά λαμβάνουν τη μορφή των αιτήσεων φιλίας, συχνά με γυναικείες προφίλ που στοχεύουν τους άνδρες, ή με καταληφθέντες λογαριασμούς χρηστών με ιστορία τακτικών αναρτήσεων. Αυτοί οι καταληφθέντες λογαριασμοί μεταβαίνουν σιγά-σιγά σε πιο πολιτικές αναρτήσεις, μέχρι να κυριαρχούν από προπαγάνδα ή θεωρίες συνωμοσίας.
Ένας ανυποψίαστος χρήστης μπορεί να μην είναι επίγνωση ότι ο λογαριασμός ενός φίλου έχει παραβιαστεί. Αν ο χρήστης είναι ευάλωτος σε θεωρίες συνωμοσίας, μπορεί να αλληλεπιδράσει με το ψευδές αντικείμενο του newsfeed, ο Ρώσος troll που είναι συχνά ένα bot, τότε παρέχει πρόσθετη κοινωνική απόδειξη με τη μορφή likes ή σχολίων.
Οι ευάλωτοι χρήστες είναι συχνά εκείνοι που λιγότερο κατανοούν πώς λειτουργούν η τεχνολογία και το AI. Η ηλικιακή ομάδα άνω των 65 ετών, η οποία είναι ο πληθυσμός που πιθανότατα θα ψηφίσει, είναι επίσης η πιο πιθανή να διαδίδει ψευδείς ειδήσεις, όπως αναφέρθηκε από την New York Times.
Σύμφωνα με τη μελέτη, οι χρήστες του Facebook ηλικίας 65 ετών και άνω δημοσίευσαν επτά φορές περισσότερα άρθρα από ψευδείς ιστοσελίδες ειδήσεων από τους ενήλικες 29 ετών και νεότερους. Η έλλειψη ψηφιακής μεσικής γραμματικής έχει αυτήν την ηλικιακή ομάδα να μην είναι προετοιμασμένη για einen newsfeed που δεν βασίζεται σε γεγονότα ή ακρίβεια, αλλά αποκλειστικά στην εμπλοκή του χρήστη.
Οι κακοί ηθοποιοί εκμεταλλεύονται τον μηχανισμό συστάσεων του Facebook, ο οποίος εκμεταλλεύεται τις γνωστικές προκαταλήψεις μας. Αυτές οι ίδιες οργανώσεις έχουν βελτιστοποιήσει την κακοποίηση του AI του Facebook για τη διάδοση θεωριών συνωμοσίας και προπαγάνδας. Οι θεωρίες συνωμοσίας που μπορεί να φαίνονται αθώες στην αρχή, συχνά χρησιμοποιούνται ως καναλιές σε λευκή υπεροχή, ακροδεξιά εθνικιστική ή QAnon μια παράξενη θεωρία συνωμοσίας που αφορά τον Trump να προσπαθεί να σώσει τον κόσμο από λιβεραλιστές πενταπράκτορες, μια θεωρία που δεν έχει καμία βάση στην πραγματικότητα.
Περίληψη
Το Facebook είναι σαφώς επίγνωση ότι υπάρχει ένα πρόβλημα και έχουν ανακοινώσει δημόσια μια στρατηγική που επικεντρώνεται στην αφαίρεση περιεχομένου που παραβιάζει τους Κανόνες της Κοινότητας του Facebook. Το πρόβλημα είναι ότι η διαγραφή των λογαριασμών είναι μια προσωρινή λύση που είναι αναποτελεσματική όταν οι λογαριασμοί δημιουργούνται σε bulk από bots, ή την μαζική παραβίαση των λογαριασμών χρηστών. Επίσης, δεν λύνει το πρόβλημα ότι η większość της μοιρασιάς γίνεται από κανονικούς χρήστες που δεν είναι επίγνωση ότι διαδίδουν λανθασμένες πληροφορίες.
Η προσθήκη προειδοποιητικών ετικετών απλά ενισχύει τις θεωρίες συνωμοσίας ότι τα κοινωνικά μέσα είναι προκατειλημμένα κατά των συντηρητικών, οι οποίοι είναι οι πιο ευάλωτοι σε ψευδείς ειδήσεις.
Η λύση πρέπει να είναι ένας νέος μηχανισμός συστάσεων που μετρά όχι μόνο την εμπλοκή του χρήστη, αλλά είναι βελτιστοποιημένος για την ευτυχία του χρήστη, παρέχοντας αλήθεια και προωθώντας την αυξημένη αυτογνωσία.
Εν τω μεταξύ, το Facebook πρέπει να ακολουθήσει τον δρόμο που ακολούθησε το Twitter για να απαγορεύσει τις πολιτικές διαφημίσεις.
Τέλος, μια σημαντική ερώτηση πρέπει να τεθεί. Αν οι άνθρωποι δεν έχουν πλέον επιλογή στο νέα που βλέπουν, πότε σταματά να είναι μια σύσταση και πότε γίνεται έλεγχος του νου;












