Connect with us

Jak Facebookův AI šíří dezinformace a ohrožuje demokracii

Myslitelé

Jak Facebookův AI šíří dezinformace a ohrožuje demokracii

mm

Dan Tunkelang, který dohlížel na výzkum AI v LinkedIn, uvedl: „Okamžik, kdy doporučení mají moc ovlivňovat rozhodnutí, se stávají cílem pro spaméry, podvodníky a další lidi s méně než ušlechtilými motivy.”

Toto je dilema, se kterým se potýkají společnosti sociálních médií, jako je Facebook. Facebook používá implicitní zpětnou vazbu ke sledování kliknutí, zobrazení a dalších měřitelných chování uživatelů. To se používá k navržení toho, co je identifikováno jako „doporučení motor“, systém AI, který má konečnou moc rozhodovat, kdo vidí jaký obsah a kdy.

Facebook optimalizoval svůj doporuční motor pro maximalizaci zapojení uživatelů, které se měří podle času stráveného na platformě Facebook. Maximalizace času má přednost před jakoukoli jinou proměnnou, včetně kvality nebo přesnosti doporučeného obsahu.

Systém je navržen tak, aby odměňoval senzacechtivé tituly, které zapojují uživatele využíváním kognitivních偏見, i když tyto tituly mohou být napsány ruskými trolly s úmyslem rozdělit společnost nebo ovlivnit politické volby.

Jak Facebook používá AI

Neexistuje dostatečné povědomí o tom, jak Facebook používá AI k rozhodování o tom, co jeho uživatelé vidí a interagují. Nejprve je třeba pochopit, co je potvrzovací bias. Psychology Today popisuje to takto:

Potvrzovací bias je tendence hledat, interpretovat, upřednostňovat a vzpomínat na informace způsobem, který potvrzuje nebo podporuje naše předchozí přesvědčení nebo hodnoty.

Facebook chápe, že uživatelé jsou více pravděpodobně kliknout na zprávy, které se hodí do lidské tendence hledat potvrzovací bias. To nastavuje nebezpečný precedent pro šíření konspiračních teorií a vytváření echo komor, kde uživatelé jsou krmeni výhradně tím, co chtějí vidět, bez ohledu na přesnost nebo společenský dopad toho, co je vidět.

Studie z MIT dokázala prokázat, že falešné zprávy na Twitteru se šíří 6krát rychleji než skutečné zprávy.

To znamená, že både Twitter a Facebook mohou být zneužity. Zatímco Twitter umožňuje komukoli záměrně sledovat kanály s úzkými nebo zkreslenými názory, Facebook jde ještě dále. Uživatel na Facebooku v současné době nemá žádný způsob, jak ovládat nebo měřit, co je vidět, toto je zcela ovládáno Facebookovým doporučním motorem, jak měří zapojení uživatelů a jak optimalizuje toto zapojení.

Facebook se snaží tvarovat a předpovídat touhy svých uživatelů. Facebook odhaduje, do jaké míry uživatel bude mít rád nebo nebude mít rád zpravodajský článek, který uživatel ještě nezažil. Aby se zabránilo ztrátě zapojení uživatelů, Facebook pak zvolí obejít zpravodajské články, které mohou snížit úroveň zapojení, a zvolí místo toho zapojit uživatele krmením zpravodajskými články, které krmit potvrzovací bias, zajišťující více kliknutí, komentářů, líbí a sdílení.

Facebook také používá automatizované spolupracující filtrování historických akcí a názorů uživatelů pro automatické přiřazení účastníků (přátel) se stejné názory. Facebook používá utilitní funkci, která automaticky a matematicky předpovídá a řadí vaše preference pro položky, které chcete vidět.

To způsobuje, že uživatelé spadají do zajíce, jsou uvězněni ve falešných zprávách, jsou krmeni obsahem, který posiluje jejich bias. Předložený obsah je vnitřně navržen s cílem ovlivnit, na co kliknete. Pokud věříte konspiraci, že Bill Gates se snaží mikročipovat lidskou populaci pomocí vakcín, proč by Facebook měl předložit vám protichůdné důkazy, které by vás mohly způsobit, že se odpojíte od platformy? Pokud podporujete určitého politického kandidáta, proč by Facebook měl nabízet zprávy, které by mohly vyvrátit vaše pozitivní názory na tohoto kandidáta?

Jak jika to nebylo dostatečné, Facebook také využívá to, co je známo jako “sociální důkaz”. Sociální důkaz je koncept, že lidé budou následovat akce většiny. Nápad je, že protože tolik lidí se chová určitým způsobem, musí to být správné chování.

Facebook poskytuje tento sociální důkaz v kontextu líbí, komentářů nebo sdílení. Pokud pouze určití přátelé mohou vidět zpravodajský článek (pokud jej nezamýšleně hledají v uživatelském zpravodajském kanálu), sociální důkaz jednoduše posiluje potvrzovací bias.

Facebook také používá filtry bublin pro omezení expozice konfliktním, protichůdným a výzvám názorům.

Facebook Inzerce

Nevědomí uživatelé Facebooku mohou kliknout na inzerce bez vědomí, že jsou prezentováni inzercí. Důvod je jednoduchý, pokud existuje inzerce, pouze první osoba, která je prezentována inzercí, uvidí inzerční upozornění. Pokud uživatel sdílí inzerci, všichni na jeho seznamu přátel vidí pouze “sdílení” jako zpravodajský článek, protože Facebook záměrně odstraní inzerční upozornění. Okamžitě, uživatelé snižují svou pozornost, nejsou schopni rozlišit, co je inzerce a co by se objevilo organicky na jejich zpravodajském kanálu.

Facebook Sdílení

Bohužel, věci se zhoršují. Pokud uživatel má 1000 přátel, kteří současně sdílejí obsah, doporuční motor bude upřednostňovat obsah z menšiny, kteří sdílejí stejné názory, i když tyto často sestávají z neprokázaných konspiračních teorií. Uživatel bude poté pod vlivem iluze, že tyto zpravodajské články jsou viděny všemi. Interagující s tímto zpravodajským článkem, tito uživatelé optimalizují navzájem svůj sociální důkaz.

Pokud se uživatel pokusí osvětlit jiného uživatele o zavádějící nebo falešné položce, samotný akt komentování nebo interagování se zpravodajským článkem jednoduše zvyšuje původní dobu zapojení uživatele. Tento zpětnovazebný smyček způsobuje, že Facebook posiluje zapojení tohoto uživatele s dalšími falešnými zprávami.

To způsobuje echo komoru, filtr bublinu, kde uživatel je vycvičen věřit pouze tomu, co vidí. Pravda je prostě iluze.

Vážnost problému

Více než 10 milionů lidí interagovalo se zpravodajským článkem, který tvrdil, že papež František veřejně podporoval Trumpovu volbu v roce 2016. Neexistovaly žádné důkazy o tom, bylo to prostě falešná zpráva, která pocházela z Ruska, ale to byla nejvíce sdílená zpráva na Facebooku ve třech měsících před volbami v roce 2016.

Zpravodajský článek byl vygenerován ruskou troll farmou, která se nazývá “Internet Research Agency”. Tato sama organizace byla odpovědná za propagaci a sdílení na Twitteru a Facebooku článků, které rozdělovaly rasu, které démonizovaly Black Lives Matter, a které zneužívaly falešné zprávy, které šíří falešné nároky o amerických politicích.

Vyšetřovací výbor pro zpravodajství vydal 85stránkovou zprávu, která podrobně popisuje ruské aktivní opatření a interference, z nichž většina zahrnovala šíření rozdělujících falešných zpráv a propagandy, jejichž jediným cílem bylo ovlivnit volby v USA v roce 2016.

Přejděme k volbám v roce 2020 a problém se pouze zhoršil. V září 2020, po tipu FBI, Facebook a Twitter přerušili sociální média účty pro zpravodajskou agenturu s názvem PeaceData, která je spojena s ruskými státními propagandistickými aktivitami.

Bohužel, ukončení účtů je dočasným a neúčinným řešením. Ruské účty často přebírají formu žádostí o přátelství, často jsou znásilněny ženami s atraktivními profily, které cílí na muže, nebo jimi jsou převzaté uživatelské účty s historií pravidelných příspěvků. Tyto převzaté účty se postupně mění na více politické příspěvky, až jsou ovládány propagandou nebo konspiračními teoriemi.

Nevědomí uživatelé mohou být si vědomi, že účet přátel je kompromitován. Pokud je tento uživatel zranitelný vůči konspiračním teoriím, může interagovat s falešnou zpravodajskou položkou, ruský troll, který je často bot, pak poskytuje další sociální důkaz formou líbí nebo komentářů.

Zranitelní uživatelé jsou často ti, kteří nejméně rozumí, jak funguje technologie a AI. Demografická skupina nad 65 let, která je nejpravděpodobněji volit, je také nejpravděpodobněji šíří falešné zprávy, jak uvedl New York Times.

Podle studie uživatelé Facebooku ve věku 65 a starší sdíleli sedmkrát více článků z falešných zpravodajských webových stránek než dospělí ve věku 29 a mladší. Nedostatek digitální mediální gramotnosti má tuto věkovou skupinu nepřipravenou na zpravodajský kanál, který není založen na faktech nebo přesnosti, ale výhradně na zapojení uživatelů.

Špatní aktéři využívají Facebookova doporučního motoru, který využívá naše kognitivní biasy proti nám. Tyto stejné organizace optimalizovaly zneužití Facebookova AI pro šíření konspiračních teorií a propagandy. Konspirační teorie, které mohou na první pohled vypadat neškodně, jsou často používány jako tunely do bílé nadřazenosti, extrémní pravé nacionalismu nebo QAnon bizarní konspirační teorie, která zahrnuje Trumpa, který se snaží zachránit svět před liberálními pedofily, konspirační teorii, která nemá žádný základ v realitě.

Shrnutí

Facebook je jasně vědom si, že existuje problém, a veřejně ohlásil strategii, která se zaměřuje na odstranění obsahu, který porušuje Facebookovy komunitní standardy. Problém je, že odstranění účtů je dočasným řešením, které je neúčinné, pokud jsou účty generovány ve velkém množství boty nebo hromadným hackováním uživatelských účtů. To také neřeší problém, že většina sdílení je provedena běžnými uživateli, kteří si nejsou vědomi, že šíří dezinformace.

Přidání varovných štítků jednoduše posiluje konspirační teorie, že sociální média jsou zaujatá proti konzervativcům, kteří jsou nejvíce náchylní k falešným zprávám.

Řešení musí být nové doporuční motor, který měří nejen zapojení uživatelů, ale je optimalizován pro štěstí uživatelů dodáváním pravdy a podporou zvýšené sebevědomí.

Mezitím by Facebook měl následovat cestu, kterou Twitter vzal, aby zakázal politickou inzerci.

Nakonec je třeba položit důležitou otázku. Pokud lidé již nemají na výběr, jaké zprávy vidí, kdy přestává to být doporučení a kdy se stává ovládáním mysli?

Doporučené čtení:

Ruské aktivní opatření a interference – Zpráva vyšetřovacího výboru pro zpravodajství Senátu USA.

Šokující článek, který předpovídá konec demokracie – Od Rick Shenkman, zakladatel History News Network na George Washington University.

Starší lidé sdílejí falešné zprávy na Facebooku více – Od New York Times

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.