Liderzy myśli
Jak sztuczna inteligencja Facebooka szerzy dezinformację i zagraża demokracji

Dan Tunkelang, który nadzorował badania nad sztuczną inteligencją na LinkedIn, stwierdził: „W momencie, gdy rekomendacje nabiorą mocy wpływania na decyzje, stają się celem dla spamerów, oszustów i innych osób mających niezbyt szlachetne motywy”.
Przed takimi dylematami stoją firmy z branży mediów społecznościowych, takie jak Facebook. Facebook korzysta ukryta informacja zwrotna do śledzenia kliknięć, wyświetleń i innych mierzalnych zachowań użytkowników. Służy to do projektowania tzw. „silnika rekomendacji”, czyli systemu sztucznej inteligencji, który ma najwyższą władzę w decydowaniu o tym, kto i kiedy widzi jakie treści.
Facebook zoptymalizował swój silnik rekomendacji, aby zmaksymalizować zaangażowanie użytkowników mierzone ilością czasu spędzonego na platformie Facebook. Maksymalizacja czasu ma pierwszeństwo przed jakąkolwiek inną zmienną, w tym jakością i dokładnością tego, co jest zalecane.
System ma na celu nagradzanie sensacyjnych nagłówków, które angażują użytkowników poprzez wykorzystanie błędu poznawczego, nawet jeśli nagłówki te zostały napisane przez rosyjskie trolle z zamiarem podzielenia społeczeństwa lub wywarcia wpływu na wybory polityczne.
Jak Facebook wykorzystuje sztuczną inteligencję
Brakuje świadomości, w jaki sposób Facebook wykorzystuje sztuczną inteligencję do decydowania o tym, co użytkownicy widzą i z czym wchodzą w interakcję. Najpierw należy zrozumieć, czym jest błąd potwierdzenia. Psychologia Today opisuje to jako:
Błąd potwierdzenia to tendencja do wyszukiwania, interpretowania, faworyzowania i przypominania sobie informacji w sposób, który potwierdza lub wspiera wcześniejsze przekonania lub wartości danej osoby.
Facebook rozumie, że użytkownicy chętniej klikają wiadomości, co wzmacnia ludzką skłonność do szukania efektu potwierdzenia. Stwarza to niebezpieczny precedens zarówno dla rozpowszechniania teorii spiskowych, jak i tworzenia komór echa, w których użytkownicy są karmieni łyżką wyłącznie tym, co chcą zobaczyć, niezależnie od dokładności lub społecznego wpływu tego, co widzą.
A badanie MIT był w stanie wykazać, że fałszywe wiadomości na Twitterze rozprzestrzeniają się 6 razy szybciej niż prawdziwe wiadomości.
Oznacza to, że zarówno Twitter, jak i Facebook mogą zostać uzbrojone. Twitter umożliwia każdemu celowe działanie obserwuj treści zawierających wąskie lub stronnicze punkty widzenia, Facebook idzie o krok dalej. Użytkownik Facebooka nie ma obecnie możliwości kontrolowania ani pomiaru tego, co widzi. Jest to całkowicie kontrolowane przez silnik rekomendacji Facebooka, sposób pomiaru zaangażowania użytkowników i sposób optymalizacji pod kątem tego samego zaangażowania użytkowników.
Facebook stara się kształtować i przewidywać pragnienia swoich użytkowników. Facebook szacuje, w jakim stopniu użytkownik będzie lubił lub nie lubił wiadomości, których jeszcze nie doświadczył. Aby uniknąć utraty zaangażowania użytkowników, Facebook następnie pomija wiadomości, które mogą zmniejszyć poziom zaangażowania, i zamiast tego angażuje użytkownika, dostarczając mu wiadomości, co wzmacnia efekt potwierdzenia, zapewniając więcej kliknięć, komentarzy, polubień i Akcje.
Facebook korzysta również z automatycznego, wspólnego filtrowania historycznych działań i opinii użytkowników, aby automatycznie dopasowywać uczestników (znajomych) o podobnych opiniach. Facebook korzysta z funkcji narzędziowej, która automatycznie i matematycznie przewiduje i klasyfikuje Twoje preferencje dotyczące elementów, które chcesz zobaczyć.
To powoduje, że użytkownicy wpadają w króliczą norę, są uwięzieni w fałszywych wiadomościach i karmieni treściami, które wzmacniają ich stronniczość. Prezentowana treść jest z natury zaprojektowana tak, aby wpływać na to, w co klikasz. W końcu, jeśli wierzysz w spisek mówiący, że Bill Gates próbuje wszczepić ludziom mikrochipy za pomocą szczepionek, dlaczego Facebook miałby przedstawiać ci sprzeczne dowody, które mogą spowodować, że zerwiesz kontakt z platformą? Jeśli popierasz określonego kandydata politycznego, dlaczego Facebook miałby udostępniać wiadomości, które mogą zaprzeczać Twoim pozytywnym poglądom na temat tego samego kandydata?
Jakby tego było mało, Facebook wykorzystuje także tzw. „dowód społeczny”. Dowód społeczny to koncepcja mówiąca, że ludzie będą podążać za działaniami mas. Pomysł jest taki, że skoro tak wiele innych osób zachowuje się w określony sposób, musi to być prawidłowe zachowanie.
Facebook zapewnia ten dowód społecznościowy w kontekście polubień, komentarzy lub udostępnień. Ponieważ tylko niektórzy znajomi mogą zobaczyć element kanału aktualności (chyba że specjalnie przeszukają kanał aktualności użytkownika), dowód społeczny służy jedynie wzmocnieniu błędu potwierdzenia.
Facebook też korzysta filtruj bąbelki aby ograniczyć narażenie na sprzeczne, sprzeczne lub wymagające punkty widzenia.
Facebook Ads
Niczego niepodejrzewający użytkownicy Facebooka mogą być klikanie reklam bez wiedzy że wyświetlają się im reklamy. Powód tego jest prosty: jeśli istnieje reklama, tylko pierwsza osoba, której zostanie wyświetlona reklama, zobaczy informację o wyłączeniu odpowiedzialności za reklamę. Jeśli ten użytkownik udostępni reklamę, wszyscy na jego liście znajomych po prostu zobaczą „udostępnienie” jako element kanału aktualności, ponieważ Facebook celowo porzuci zastrzeżenie dotyczące reklamy. Użytkownicy natychmiast tracą czujność, nie są w stanie odróżnić, co jest reklamą, a tym, co naturalnie pojawiłoby się w ich kanale informacyjnym.
Udostępnienia na Facebooku
Niestety, sytuacja się pogarsza. Jeśli użytkownik ma 1000 znajomych, którzy jednocześnie udostępniają treści, silnik rekomendujący nada priorytet treściom pochodzącym od mniejszości, która podziela te same poglądy, nawet jeśli często składają się one z niepotwierdzonych teorii spiskowych. Użytkownik będzie wówczas miał złudzenie, że te elementy kanału informacyjnego są widoczne dla wszystkich. Korzystając z tego kanału aktualności, użytkownicy ci wzajemnie optymalizują swoje zabezpieczenia społecznościowe.
Jeśli użytkownik spróbuje poinformować innego użytkownika o wprowadzającym w błąd lub fałszywym elemencie, sam akt komentowania lub interakcji z kanałem aktualności po prostu zwiększa czas zaangażowania pierwotnego użytkownika. Ta pętla informacji zwrotnej powoduje, że Facebook wzmacnia zaangażowanie tego użytkownika dodatkowymi fałszywymi wiadomościami.
Powoduje to powstanie komory echa, bańki filtrującej, w której użytkownik uczy się wierzyć tylko w to, co widzi. Prawda jest po prostu iluzją.
Powaga problemu
Ponad 10 milionów ludzi współpracuje z kanałem informacyjnym twierdząc, że papież Franciszek opowiedział się za wyborem Trumpa w 2016 r. Nie było na to dowodów, była to po prostu fałszywa wiadomość, która napłynęła z Rosji, a mimo to była to najczęściej udostępniana wiadomość na Facebooku w ciągu ostatnich trzech miesięcy aż do wyborów w 2016 roku.
Wiadomość została wygenerowana przez rosyjską farmę trolli, która nazywa siebie „Agencją Badań Internetowych”. Ta sama organizacja była odpowiedzialna za promowanie i udostępnianie na Twitterze i Facebooku artykułów zawierających przynęty rasistowskie na rzecz demonizowania Black Lives Matter oraz rozpowszechniania fałszywych wiadomości na temat amerykańskich polityków.
Komisja Specjalna ds. Wywiadu opublikowała raport Raport 85 stron opisując szczegółowo rosyjskie kampanie i interwencje w ramach aktywnych środków, z których większość obejmowała rozpowszechnianie fałszywych wiadomości powodujących podziały, oraz propagandę, której wyłącznym celem było wywarcie wpływu na wybory w USA w 2016 r.
Szybko do wyborów w 2020 r., a problem tylko się nasilił. We wrześniu 2020 r. po wskazówce FBI na Facebooku i Twitterze zamknięte konta w mediach społecznościowych dla organizacji informacyjnej o nazwie PeaceData, która jest powiązana z państwowymi działaniami propagandowymi Rosji.
Niestety zamknięcie kont jest rozwiązaniem tymczasowym i nieskutecznym. Rosyjskie konta często przyjmują formę zaproszeń do znajomych, często zniesmaczonych kobietami o atrakcyjnych profilach skierowanych do mężczyzn lub przejętymi kontami użytkowników z historią regularnych postów. Te przejęte konta powoli zajmują stanowiska o charakterze bardziej politycznym, aż do momentu, gdy zdominuje je propaganda lub teorie spiskowe.
Niczego niepodejrzewający użytkownik może nie wiedzieć, że konto znajomego zostało przejęte. Jeśli ten użytkownik jest podatny na teorie spiskowe, może zaangażować się w fałszywy element kanału informacyjnego, rosyjski troll, który często jest botem, a następnie zapewnia dodatkowy dowód społecznościowy w postaci polubień lub komentarzy.
Wrażliwi użytkownicy to często ci, którzy najmniej rozumieją, jak działa technologia i sztuczna inteligencja. Grupa demograficzna powyżej 65. roku życia, czyli populacja, która najprawdopodobniej głosuje, jest również najbardziej narażona na rozpowszechnianie fałszywych wiadomości poinformował „New York Times”..
Według badania użytkownicy Facebooka w wieku 65 lat i starsi zamieścili siedem razy więcej artykułów z serwisów z fałszywymi wiadomościami niż dorośli w wieku 29 lat i młodsi. Brak umiejętności korzystania z mediów cyfrowych sprawia, że ta grupa wiekowa nie jest przygotowana na kanał informacyjny, który nie jest oparty na faktach ani na dokładności, ale wyłącznie na zaangażowaniu użytkowników.
Źli aktorzy wykorzystują silnik rekomendacji Facebooka, który wykorzystuje nasze uprzedzenia poznawcze przeciwko nam. Te same organizacje zoptymalizowały wykorzystanie sztucznej inteligencji Facebooka do szerzenia teorii spiskowych i propagandy. Teorie spiskowe, które na pierwszy rzut oka mogą wydawać się niewinne, są często wykorzystywane jako kanały prowadzące do białej supremacji, skrajnie prawicowego nacjonalizmu lub QAnon dziwaczna teoria spiskowa, w której Trump próbuje ocalić świat przed liberalnymi pedofilami, spisek mający zerowe podstawy w rzeczywistości.
Podsumowanie
Facebook wyraźnie zdaje sobie sprawę, że istnieje problem i wyraził to publicznie ogłosił strategię który koncentruje się na usuwaniu treści naruszających Standardy społeczności Facebooka. Problem polega na tym, że usuwanie kont jest środkiem tymczasowym, który jest nieskuteczny w przypadku masowego generowania kont przez boty lub masowego hakowania kont użytkowników. Nie rozwiązuje to również problemu polegającego na tym, że większość udostępniań dokonują zwykli użytkownicy, którzy nie są świadomi, że rozpowszechniają dezinformację.
Dodawanie etykiet ostrzegawczych służy jedynie wzmocnieniu teorii spiskowych mówiących, że giganci mediów społecznościowych są uprzedzeni w stosunku do konserwatystów, którzy są najbardziej podatny na fałszywe wiadomości.
Rozwiązaniem musi być nowy silnik rekomendujący, który mierzy nie tylko zaangażowanie użytkowników, ale jest zoptymalizowany pod kątem zadowolenia użytkowników poprzez dostarczanie prawdy i promowanie zwiększonej samoświadomości.
Tymczasem Facebook powinien podążać tą ścieżką Twitter zdecydował się zakazać reklam politycznych.
Na koniec należy zadać ważne pytanie. Jeśli ludzie nie mają już wyboru w sprawie wiadomości, które oglądają, kiedy przestają one być rekomendacją, a kiedy stają się kontrolą umysłu?
Zalecana literatura:
Rosyjskie kampanie aktywnych środków i zakłócenia – Raport Specjalnej Komisji ds. Wywiadu Senatu Stanów Zjednoczonych.
Szokujący artykuł przepowiadający koniec demokracji - Przez Rick Shenkman, założyciel sieci History News Network na Uniwersytecie George’a Washingtona.
Starsi ludzie częściej dzielą się fałszywymi wiadomościami na Facebooku – Według „New York Timesa”.