Liderzy opinii
Jak sztuczna inteligencja Facebooka rozprzestrzenia dezinformację i zagraża demokracji

Dan Tunkelang, który nadzorował badania nad sztuczną inteligencją w LinkedIn, stwierdził: „W momencie, gdy rekomendacje mają wpływ na decyzje, stają się celem dla oszustów, złodziei i innych osób o mniej niż szlachetnych motywach”.
To jest dylemat, z którym mierzą się firmy medialne, takie jak Facebook. Facebook używa niejawnej informacji zwrotnej, aby śledzić kliknięcia, wyświetlenia i inne mierzone zachowania użytkowników. Informacje te są wykorzystywane do zaprojektowania tego, co określa się jako “silnik rekomendacji”, system sztucznej inteligencji, który ma ostateczną władzę nad decyzjami, kto widzi jaką treść i kiedy.
Facebook zoptymalizował swój silnik rekomendacji, aby maksymalizować zaangażowanie użytkowników, które mierzy się czasem spędzonym na platformie Facebook. Maksymalizacja czasu ma pierwszeństwo przed innymi zmiennymi, w tym jakością lub dokładnością rekomendowanych treści.
System jest zaprojektowany tak, aby nagradzać sensacyjne nagłówki, które angażują użytkowników, wykorzystując cognitive bias, nawet jeśli te nagłówki są napisane przez rosyjskich trolli z zamiarem dzielenia społeczeństwa lub wpływania na wybory polityczne.
Jak Facebook wykorzystuje sztuczną inteligencję
Istnieje brak świadomości na temat tego, jak Facebook wykorzystuje sztuczną inteligencję do decydowania, co użytkownicy widzą i z czym wchodzą w interakcję. Po pierwsze, trzeba zrozumieć, co to jest confirmation bias. Psychology Today opisuje to jako:
Confirmation bias to tendencja do poszukiwania, interpretowania, faworyzowania i przypominania informacji w sposób, który potwierdza lub wspiera wcześniejsze przekonania lub wartości.
Facebook wie, że użytkownicy są bardziej skłonni kliknąć na wiadomości, które karmią ludzką tendencję do poszukiwania confirmation bias. To ustanawia niebezpieczny precedens zarówno dla rozprzestrzeniania się teorii spiskowych, jak i tworzenia izb echa, w których użytkownicy są karmieni wyłącznie tym, co chcą zobaczyć, niezależnie od dokładności lub wpływu społecznego na to, co jest widziane.
Badanie przeprowadzone przez MIT wykazało, że fałszywe wiadomości na Twitterze rozprzestrzeniają się sześć razy szybciej niż prawdziwe wiadomości.
To oznacza, że zarówno Twitter, jak i Facebook mogą być wykorzystywane jako broń. Podczas gdy Twitter umożliwia każdemu śledzenie kanałów z wąskimi lub tendencyjnymi punktami widzenia, Facebook idzie o krok dalej. Użytkownik na Facebooku nie ma obecnie żadnego sposobu, aby kontrolować lub mierzyć to, co widzi, co jest kontrolowane wyłącznie przez silnik rekomendacji Facebooka, jak mierzy zaangażowanie użytkowników i jak optymalizuje to zaangażowanie.
Facebook próbuje kształtować i przewidywać pragnienia swoich użytkowników. Facebook szacuje, w jakim stopniu użytkownik będzie lubił lub nie lubił artykułu, który jeszcze nie został przez niego doświadczony. Aby uniknąć utraty zaangażowania użytkowników, Facebook wybiera pominięcie artykułów, które mogą zmniejszyć poziom zaangażowania, i wybiera zamiast tego angażowanie użytkownika, karmiąc go artykułami, które karmią confirmation bias, zapewniając więcej kliknięć, komentarzy, polubień i udostępnień.
Facebook również wykorzystuje automatyczne współfiltrowanie historycznych działań i opinii użytkowników, aby automatycznie dopasować uczestników (przyjaciół) o podobnych opiniach. Facebook wykorzystuje funkcję użyteczności, która automatycznie i matematycznie przewiduje i klasyfikuje Twoje preferencje dotyczące elementów, które chcesz zobaczyć.
To powoduje, że użytkownicy wpadają w króliczą norę, są uwięzieni w fałszywych wiadomościach, karmieni treściami, które wzmacniają ich bias. Przedstawiana treść jest nieodłącznie zaprojektowana z celem wpływania na to, na co klikasz. Jeśli wierzysz w spisek, że Bill Gates próbuje mikrochipować ludzką populację za pomocą szczepionek, dlaczego Facebook miałby przedstawić ci sprzeczne dowody, które mogą spowodować, że rozłączysz się z platformą? Jeśli popierasz określonego kandydata politycznego, dlaczego Facebook miałby zaoferować wiadomości, które mogą sprzeciwiać się Twoim pozytywnym poglądom na temat tego samego kandydata?
Jeśli to nie wystarczy, Facebook również angażuje się w to, co nazywa się “społecznym dowodem”. Społeczny dowód to pojęcie, że ludzie będą naśladować działania mas. Idea polega na tym, że ponieważ tak wielu innych ludzi zachowuje się w określony sposób, musi to być właściwe zachowanie.
Facebook zapewnia ten społeczny dowód w kontekście polubień, komentarzy lub udostępnień. Ponieważ tylko niektórzy przyjaciele mogą zobaczyć element wiadomości (chyba że specjalnie wyszukają wiadomości użytkownika), społeczny dowód po prostu wzmacnia confirmation bias.
Facebook również wykorzystuje bańki filtrujące, aby ograniczyć ekspozycję na sprzeczne, sprzeczne i wyzywające punkty widzenia.
Reklamy na Facebooku
Niewtajemniczeni użytkownicy Facebooka mogą kliknąć na reklamy bez świadomości, że są one prezentowane jako reklamy. Powodem jest to, że jeśli jest tylko jedna osoba, która widzi reklamę, tylko ta osoba zobaczy disclaimer reklamy. Jeśli użytkownik udostępni reklamę, wszyscy na jego liście przyjaciół zobaczą udostępnienie jako element wiadomości, a Facebook celowo usuwa disclaimer reklamy. Natychmiast, użytkownicy obniżają swoją straż, nie są w stanie odróżnić, co jest reklamą, a co pojawiłoby się organicznie na ich wiadomości.
Udostępnienia na Facebooku
Niestety, sytuacja się pogarsza. Jeśli użytkownik ma 1000 przyjaciół, którzy jednocześnie udostępniają treści, silnik rekomendacji będzie priorytetem treści od mniejszości, która ma te same poglądy, nawet jeśli te poglądy składają się z nieudowodnionych teorii spiskowych. Użytkownik będzie wtedy miał iluzję, że te elementy wiadomości są widziane przez wszystkich. Poprzez interakcję z tymi elementami wiadomości, użytkownicy optymalizują wzajemnie swój społeczny dowód.
Jeśli użytkownik spróbuje oświecić innego użytkownika o mylącym lub fałszywym elemencie, sam akt komentowania lub angażowania się w wiadomość zwiększa czas zaangażowania oryginalnego użytkownika. Ten pętla sprzężenia zwrotnego powoduje, że Facebook wzmacnia angażowanie tego użytkownika z dodatkowymi fałszywymi wiadomościami.
To powoduje izbę echa, bańkę filtrującą, w której użytkownik jest szkolony, aby wierzyć tylko w to, co widzi. Prawda jest po prostu iluzją.
Poważność problemu
Ponad 10 milionów ludzi zaangażowało się w wiadomość, twierdząc, że papież Franciszek poparł wybory Donalda Trumpa w 2016 roku. Nie było dowodów na to, była to po prostu fałszywa wiadomość, która pojawiła się z Rosji, a jednak była to najbardziej udostępniana wiadomość na Facebooku w trzech miesiącach poprzedzających wybory w 2016 roku.
Wiadomość ta została wygenerowana przez rosyjską fermę trolli, która nazywa się “Internet Research Agency”. Ta sama organizacja była odpowiedzialna za promowanie i udostępnianie na Twitterze i Facebooku artykułów podsycających nienawiść rasową, demonizujących Black Lives Matter, oraz broniących fałszywych wiadomości, które rozprzestrzeniają fałszywe twierdzenia o amerykańskich politykach.
Komitet Wywiadu Senatu opublikował 85-stronicowy raport, w którym szczegółowo opisano rosyjskie aktywne kampanie i ingerencje, z których większość dotyczyła rozprzestrzeniania się podziałowych fałszywych wiadomości i propagandy, które miały na celu wpływanie na wybory w 2016 roku w USA.
Przeskoczmy do wyborów w 2020 roku, a problem tylko się nasilił. We wrześniu 2020 roku, po wskazówce FBI, Facebook i Twitter zawiesiły konta na mediach społecznościowych dla organizacji medialnej o nazwie PeaceData, która jest związana z rosyjskimi wysiłkami propagandowymi państwa.
Niestety, zamykanie kont jest tymczasowym i nieskutecznym rozwiązaniem. Rosyjskie konta często przybierają postać próśb o przyjaźń, często są to kobiety z atrakcyjnymi profilami, które targetują mężczyzn, lub else z zhakowanymi kontami użytkowników z historią regularnych postów. Te zhakowane konta stopniowo przechodzą do bardziej politycznych postów, aż zostaną zdominowane przez propagandę lub teorie spiskowe.
Niewtajemniczony użytkownik może nie być świadomy, że konto przyjaciela zostało zhakowane. Jeśli ten użytkownik jest podatny na teorie spiskowe, może zaangażować się w fałszywą wiadomość, a rosyjski troll, który jest często botem, zapewnia dodatkowy społeczny dowód w postaci polubień lub komentarzy.
Użytkownicy podatni są często tymi, którzy najmniej rozumieją, jak działa technologia i sztuczna inteligencja. Ludzie powyżej 65 roku życia, którzy są najbardziej prawdopodobni do głosowania, są również najbardziej skłonni do rozprzestrzeniania fałszywych wiadomości, jak donosi New York Times.
Zgodnie z badaniem użytkownicy Facebooka w wieku 65 lat i starsi opublikowali siedem razy więcej artykułów z fałszywych stron internetowych niż dorośli w wieku 29 lat i młodsi. Brak umiejętności cyfrowych sprawia, że ta grupa wiekowa nie jest przygotowana do wiadomości, które nie opierają się na faktach ani dokładności, ale wyłącznie na zaangażowaniu użytkowników.
Źli aktorzy wykorzystują silnik rekomendacji Facebooka, który wykorzystuje nasze cognitive bias przeciwko nam. Te same organizacje zoptymalizowały nadużywanie sztucznej inteligencji Facebooka do rozprzestrzeniania teorii spiskowych i propagandy. Teorie spiskowe, które mogą się wydawać niewinne na początku, są często wykorzystywane jako trampoliny do białego suprematyzmu, skrajnego nacjonalizmu lub QAnon, dziwnej teorii spiskowej dotyczącej Trumpa, który próbuje uratować świat przed liberalnymi pedofilami, teorii, która nie ma żadnego podstawienia w rzeczywistości.
Podsumowanie
Facebook jest świadomy, że istnieje problem i ogłosił publicznie strategię, która koncentruje się na usuwaniu treści, które naruszają standardy społeczności Facebooka. Problem polega na tym, że usuwanie kont jest tymczasowym rozwiązaniem, które jest nieskuteczne, gdy konta są generowane w dużych ilościach przez boty lub masowe hakowanie kont użytkowników. Nie rozwiązuje również problemu, że większość udostępniania jest dokonywana przez zwykłych użytkowników, którzy nie są świadomi, że rozprzestrzeniają dezinformację.
Dodawanie ostrzeżeń tylko wzmacnia teorie spiskowe, że giganci mediów społecznościowych są stronniczy przeciwko konserwatystom, którzy są najbardziej podatni na fałszywe wiadomości.
Rozwiązanie musi być nowym silnikiem rekomendacji, który mierzy nie tylko zaangażowanie użytkowników, ale jest zoptymalizowany dla szczęśliwości użytkowników, dostarczając prawdę i promując zwiększoną samoświadomość.
W międzyczasie Facebook powinien podążać śladem Twittera i zbanować reklamy polityczne.
Na koniec należy zadać ważne pytanie. Jeśli ludzie nie mają już wyboru co do wiadomości, które widzą, kiedy przestaje to być rekomendacją, a kiedy staje się kontrolą umysłu?
Zalecane czytanie:
Rosyjskie aktywne kampanie i ingerencje – Raport Komitetu Wywiadu Senatu Stanów Zjednoczonych.
Szokujący raport przewidujący koniec demokracji – Przez Rick Shenkman, założyciela History News Network na Uniwersytecie George’a Washingtona.
Ludzie starsi udostępniają fałszywe wiadomości na Facebooku – Przez New York Times.












