Stummel Wie Facebooks KI Fehlinformationen verbreitet und die Demokratie bedroht – Unite.AI
Vernetzen Sie sich mit uns

Vordenker

Wie Facebooks KI Fehlinformationen verbreitet und die Demokratie bedroht

mm
Aktualisiert on

Dan Tunkelang, der die KI-Forschung bei LinkedIn leitete, erklärte: „Sobald Empfehlungen die Macht haben, Entscheidungen zu beeinflussen, werden sie zum Ziel von Spammer, Betrügern und anderen Menschen mit weniger edlen Motiven.“

Dies ist das Dilemma, in dem sich Social-Media-Unternehmen wie Facebook befinden. Facebook verwendet implizites Feedback um Klicks, Aufrufe und anderes messbares Benutzerverhalten zu verfolgen. Dies wird verwendet, um eine sogenannte „Empfehlungsmaschine“ zu entwerfen, ein KI-System, das die ultimative Entscheidungsbefugnis hat, wer wann welche Inhalte sieht.

Facebook hat seine Empfehlungsmaschine optimiert, um das Nutzerengagement zu maximieren, das an der Zeit gemessen wird, die er auf der Facebook-Plattform verbringt. Die Maximierung der Zeit hat Vorrang vor allen anderen Variablen, einschließlich der Qualität oder Genauigkeit der Empfehlungen.

Das System soll sensationslüsterne Schlagzeilen belohnen, die Nutzer durch Ausnutzung kognitiver Voreingenommenheit fesseln, selbst wenn diese Schlagzeilen zufällig von russischen Trollen mit der Absicht geschrieben wurden, die Gesellschaft zu spalten oder politische Wahlen zu beeinflussen.

Wie Facebook KI nutzt

Es besteht ein Mangel an Bewusstsein darüber, wie Facebook KI nutzt, um zu entscheiden, was seine Nutzer sehen und mit was sie interagieren. Man muss zunächst verstehen, was Bestätigungsverzerrung ist. Psychology Today beschreibt dies als:

Bestätigungsvoreingenommenheit ist die Tendenz, Informationen auf eine Weise zu suchen, zu interpretieren, zu bevorzugen und abzurufen, die die eigenen früheren Überzeugungen oder Werte bestätigt oder unterstützt.

Facebook geht davon aus, dass Nutzer eher auf Nachrichten klicken, was die menschliche Tendenz zur Bestätigungsverzerrung unterstützt. Dies stellt einen gefährlichen Präzedenzfall sowohl für die Verbreitung von Verschwörungstheorien als auch für die Schaffung von Echokammern dar, in denen den Nutzern ausschließlich das aufgebrummt wird, was sie sehen wollen, unabhängig von der Genauigkeit oder den gesellschaftlichen Auswirkungen dessen, was sie sehen.

A Studie des MIT konnte nachweisen, dass sich gefälschte Nachrichten auf Twitter sechsmal schneller verbreiten als echte Nachrichten.

Das bedeutet, dass sowohl Twitter als auch Facebook als Waffe eingesetzt werden können. Während Twitter es jedem ermöglicht, dies absichtlich zu tun folgen Wenn Sie Feeds mit engstirnigen oder voreingenommenen Standpunkten verwenden, geht Facebook noch einen Schritt weiter. Ein Benutzer auf Facebook hat derzeit keine Möglichkeit, zu kontrollieren oder zu messen, was gesehen wird. Dies wird vollständig von der Empfehlungs-Engine von Facebook gesteuert, wie sie das Benutzerengagement misst und wie sie für dasselbe Benutzerengagement optimiert.

Facebook versucht, die Wünsche seiner Nutzer zu formen und vorherzusagen. Facebook schätzt, inwieweit ein Nutzer eine Nachricht, die der Nutzer noch nicht erlebt hat, mögen oder nicht mögen wird. Um einen Verlust an Nutzerengagement zu vermeiden, beschließt Facebook dann, Nachrichten zu umgehen, die das Maß an Engagement verringern könnten, und sich stattdessen dafür zu entscheiden, den Nutzer durch die Bereitstellung von Nachrichten einzubinden, was den Bestätigungsbias fördert und für mehr Klicks, Kommentare, Likes usw. sorgt Anteile.

Facebook verwendet außerdem eine automatisierte kollaborative Filterung historischer Benutzeraktionen und -meinungen, um Teilnehmer (Freunde) mit ähnlichen Meinungen automatisch zuzuordnen. Facebook verwendet eine Hilfsfunktion, die Ihre Präferenzen für Artikel, die Sie sehen möchten, automatisch und mathematisch vorhersagt und in eine Rangfolge bringt.

Dies führt dazu, dass Benutzer in ein Kaninchenloch geraten, in Fake News gefangen sind und mit Inhalten gefüttert werden, die ihre Voreingenommenheit verstärken. Der präsentierte Inhalt ist grundsätzlich mit dem Ziel gestaltet, zu beeinflussen, worauf Sie klicken. Wenn Sie schließlich an die Verschwörung glauben, dass Bill Gates versucht, die menschliche Bevölkerung mithilfe von Impfstoffen mit Mikrochips zu versehen, warum sollte Facebook Ihnen dann widersprüchliche Beweise vorlegen, die dazu führen könnten, dass Sie sich von der Plattform abwenden? Wenn Sie einen bestimmten politischen Kandidaten unterstützen, warum sollte Facebook Nachrichten anbieten, die Ihren positiven Ansichten über denselben Kandidaten widersprechen könnten?

Als wäre das nicht genug, betreibt Facebook auch den sogenannten „Social Proof“. Social Proof ist das Konzept, dass Menschen den Handlungen der Massen folgen. Da sich so viele andere Menschen auf eine bestimmte Art und Weise verhalten, muss es sich dabei um das richtige Verhalten handeln.

Facebook erbringt diesen Social Proof im Rahmen von Likes, Kommentaren oder Shares. Da nur bestimmte Freunde den Newsfeed-Eintrag sehen dürfen (es sei denn, sie durchsuchen gezielt den Newsfeed eines Benutzers), dient der Social Proof lediglich dazu, den Bestätigungsbias zu verstärken.

Facebook nutzt ebenfalls Filterblasen um den Kontakt mit widersprüchlichen, widersprüchlichen und/oder herausfordernden Standpunkten einzuschränken.

Facebook Ads

Ahnungslose Facebook-Nutzer mögen es sein Klicken Sie unbewusst auf Anzeigen dass ihnen Werbung präsentiert wird. Der Grund dafür ist einfach: Wenn es eine Anzeige gibt, sieht nur die erste Person, der die Anzeige präsentiert wird, den Haftungsausschluss der Anzeige. Wenn dieser Benutzer die Anzeige teilt, sieht jeder in seiner Freundesliste das „Teilen“ einfach als Newsfeed-Eintrag, da Facebook den Haftungsausschluss für die Anzeige absichtlich entfernt. Benutzer verlieren sofort ihre Aufmerksamkeit und können nicht mehr unterscheiden, was eine Anzeige ist und was organisch in ihrem Newsfeed erschienen wäre.

Facebook-Freigaben

Leider kommt es noch schlimmer. Wenn ein Benutzer 1000 Freunde hat, die gleichzeitig Inhalte teilen, priorisiert die Empfehlungsmaschine Inhalte der Minderheit, die die gleichen Ansichten teilen, auch wenn diese oft aus unbewiesenen Verschwörungstheorien bestehen. Der Benutzer entsteht dann die Illusion, dass diese Newsfeed-Einträge von jedem gesehen werden. Durch die Interaktion mit diesem Newsfeed optimieren diese Benutzer gegenseitig ihren Social Proof.

Sollte ein Benutzer versuchen, einen anderen Benutzer über einen irreführenden oder gefälschten Artikel aufzuklären, erhöht allein das Kommentieren oder die Interaktion mit dem Newsfeed lediglich die Interaktionszeit des ursprünglichen Benutzers. Diese Rückkopplungsschleife führt dazu, dass Facebook die Interaktion dieses Benutzers mit weiteren Fake News verstärkt.

Dadurch entsteht eine Echokammer, eine Filterblase, in der der Benutzer darauf trainiert wird, nur an das zu glauben, was er sieht. Die Wahrheit ist einfach eine Illusion.

Schwere des Problems

Über 10 Millionen Menschen beschäftigt sich mit einem Newsfeed mit der Behauptung, Papst Franziskus habe sich 2016 für Trumps Wahl ausgesprochen. Dafür gab es keine Beweise, es handelte sich lediglich um eine Fake-News-Story aus Russland, die jedoch in den drei Monaten davor die am häufigsten geteilte News-Story auf Facebook war bis zur Wahl 2016.

Die Nachricht wurde von einer russischen Trollfarm erstellt, die sich selbst „Internet Research Agency“ nennt. Dieselbe Organisation war dafür verantwortlich, rassistische Artikel auf Twitter und Facebook zu verbreiten und zu verbreiten, um „Black Lives Matter“ zu dämonisieren und gefälschte Nachrichten zu verbreiten, die falsche Behauptungen über amerikanische Politiker verbreiten.

Der Sonderausschuss für Geheimdienste veröffentlichte eine 85 Seite Bericht Darin werden die aktiven Maßnahmen und Einmischungen Russlands beschrieben, bei denen es sich größtenteils um die Verbreitung spaltender Falschmeldungen und Propaganda handelte, deren einziges Ziel darin bestand, die US-Wahlen 2016 zu beeinflussen.

Wenn wir auf die Wahlen 2020 blicken, hat sich das Problem nur noch verschärft. Im September 2020 nach einem FBI-Tipp auf Facebook und Twitter gekündigte Social-Media-Konten für eine Nachrichtenorganisation namens PeaceData, die mit den staatlichen Propagandabemühungen Russlands in Verbindung steht.

Leider ist die Schließung von Konten eine vorübergehende und ineffektive Lösung. Russische Konten haben oft die Form von Freundschaftsanfragen, die oft von Frauen mit attraktiven Profilen, die auf Männer abzielen, oder in Form von gekaperten Benutzerkonten mit regelmäßigen Posts in der Vergangenheit abgelehnt werden. Diese gekaperten Accounts wechseln langsam zu mehr politischen Posts, bis sie von Propaganda oder Verschwörungstheorien dominiert werden.

Ein ahnungsloser Benutzer weiß möglicherweise nicht, dass das Konto eines Freundes kompromittiert wurde. Wenn dieser Benutzer anfällig für Verschwörungstheorien ist, kann er sich auf den gefälschten Newsfeed-Eintrag einlassen. Der russische Troll, der oft ein Bot ist, liefert dann zusätzliche soziale Beweise in Form von Likes oder Kommentaren.

Gefährdete Benutzer sind oft diejenigen, die am wenigsten verstehen, wie Technologie und KI funktionieren. Die Bevölkerungsgruppe der über 65-Jährigen, die am wahrscheinlichsten zur Wahl geht, verbreitet auch am häufigsten Fake News berichtet von der New York Times.

Laut der Studie posteten Facebook-Nutzer im Alter von 65 Jahren und älter siebenmal so viele Artikel von Fake-News-Websites wie Erwachsene im Alter von 29 Jahren und jünger. Aufgrund mangelnder digitaler Medienkompetenz ist diese Altersgruppe nicht auf einen Newsfeed vorbereitet, der nicht auf Fakten oder Genauigkeit basiert, sondern ausschließlich auf Benutzerinteraktion.

Bösewichte machen sich die Empfehlungs-Engine von Facebook zunutze, die unsere kognitiven Vorurteile gegen uns ausnutzt. Dieselben Organisationen haben den Missbrauch der KI von Facebook zur Verbreitung von Verschwörungstheorien und Propaganda optimiert. Verschwörungstheorien, die auf den ersten Blick harmlos erscheinen mögen, werden oft als Trichter für die Vorherrschaft der Weißen, den rechtsextremen Nationalismus usw. genutzt QAn nicht eine bizarre Verschwörungstheorie, in der Trump versucht, die Welt vor liberalen Pädophilen zu retten, eine Verschwörung, die in der Realität keinerlei Grundlage hat.

Zusammenfassung

Facebook ist sich eindeutig bewusst, dass es ein Problem gibt, und das hat es auch öffentlich gemacht kündigte eine Strategie an Der Schwerpunkt liegt auf der Entfernung von Inhalten, die gegen die Community-Standards von Facebook verstoßen. Das Problem besteht darin, dass das Löschen von Konten eine vorübergehende Notlösung ist, die wirkungslos ist, wenn Konten in großen Mengen durch Bots generiert werden oder wenn Benutzerkonten massenhaft gehackt werden. Es löst auch nicht das Problem, dass der Großteil der Weitergabe durch normale Benutzer erfolgt, die sich nicht bewusst sind, dass sie Fehlinformationen verbreiten.

Das Hinzufügen von Warnhinweisen dient lediglich dazu, Verschwörungstheorien zu untermauern, dass Social-Media-Giganten gegenüber den Konservativen, die am stärksten vertreten sind, voreingenommen sind anfällig für Fake News.

Die Lösung muss eine neue Empfehlungs-Engine sein, die nicht nur das Engagement der Benutzer misst, sondern auch für die Zufriedenheit der Benutzer optimiert ist, indem sie Wahrheit liefert und ein verbessertes Selbstbewusstsein fördert.

In der Zwischenzeit sollte Facebook diesem Weg folgen Twitter hat beschlossen, politische Werbung zu verbieten.

Abschließend muss noch eine wichtige Frage gestellt werden. Wenn Menschen bei den Nachrichten, die sie sehen, keine Wahl mehr haben, wann hört es dann auf, eine Empfehlung zu sein, und wann wird es zur Gedankenkontrolle?

Empfohlene Lektüre:

Russische Kampagnen und Einmischungen für aktive Maßnahmen – Bericht des Sonderausschusses für Geheimdienste des US-Senats.

Das schockierende Papier, das das Ende der Demokratie vorhersagt - Durch Rick Shenkman, Gründer des History News Network der George Washington University.

Ältere Menschen teilen mehr Fake News auf Facebook – Von der New York Times

Ein Gründungspartner von unite.AI und Mitglied der Forbes Technology Council, Antoine ist ein Futurist der sich leidenschaftlich für die Zukunft von KI und Robotik interessiert.

Er ist auch der Gründer von Wertpapiere.io, eine Website, die sich auf Investitionen in bahnbrechende Technologien konzentriert.