Vordenker
Wie Facebooks KI Fehlinformationen verbreitet und die Demokratie bedroht

Dan Tunkelang, der die KI-Forschung bei LinkedIn beaufsichtigte, erklärte: „Im Moment, in dem Empfehlungen die Macht haben, Entscheidungen zu beeinflussen, werden sie zu einem Ziel für Spammer, Betrüger und andere Menschen mit weniger edlen Motiven.”
Dies ist das Dilemma, mit dem soziale Medienunternehmen wie Facebook konfrontiert sind. Facebook verwendet implizites Feedback, um Klicks, Ansichten und andere messbare Benutzerverhaltensweisen zu verfolgen. Dies wird verwendet, um das zu entwerfen, was als “Empfehlungsmotor” bezeichnet wird, ein KI-System, das die endgültige Macht hat, zu entscheiden, wer welchen Inhalt sieht und wann.
Facebook hat seinen Empfehlungsmotor optimiert, um die Benutzerbeteiligung zu maximieren, die durch die Zeit gemessen wird, die auf der Facebook-Plattform verbracht wird. Die Maximierung der Zeit hat Vorrang vor anderen Variablen, einschließlich der Qualität oder Genauigkeit dessen, was empfohlen wird.
Das System ist so konzipiert, dass es sensationelle Überschriften belohnt, die Benutzer durch die Ausnutzung kognitiver Verzerrungen engagieren, auch wenn diese Überschriften von russischen Trollen mit dem Ziel geschrieben werden, die Gesellschaft zu spalten oder politische Wahlen zu beeinflussen.
Wie Facebook KI verwendet
Es gibt ein mangelndes Bewusstsein dafür, wie Facebook KI verwendet, um zu entscheiden, was seine Benutzer sehen und interagieren. Zunächst muss man verstehen, was Bestätigungsverzerrung ist. Psychology Today beschreibt dies als:
Bestätigungsverzerrung ist die Tendenz, Informationen zu suchen, zu interpretieren, zu bevorzugen und zu erinnern, die die eigenen vorherigen Überzeugungen oder Werte bestätigen oder unterstützen.
Facebook versteht, dass Benutzer eher auf Nachrichten klicken, die in die menschliche Neigung, Bestätigungsverzerrung zu suchen, passen. Dies setzt ein gefährliches Präzedenzfall für die Verbreitung von Verschwörungstheorien und für die Schaffung von Echo-Kammern, in denen Benutzer ausschließlich das sehen, was sie sehen wollen, unabhängig von der Genauigkeit oder der gesellschaftlichen Auswirkung dessen, was gesehen wird.
Eine Studie von MIT konnte demonstrieren, dass falsche Nachrichten auf Twitter sechs Mal schneller verbreitet werden als wahre Geschichten.
Dies bedeutet, dass sowohl Twitter als auch Facebook als Waffe eingesetzt werden können. Während Twitter es jedem ermöglicht, absichtlich zu folgen Feeds mit engen oder voreingenommenen Standpunkten, geht Facebook einen Schritt weiter. Ein Benutzer auf Facebook hat derzeit keine Möglichkeit, zu kontrollieren oder zu messen, was gesehen wird, dies wird vollständig von Facebooks Empfehlungsmotor gesteuert, wie er die Benutzerbeteiligung misst und wie er diese optimiert.
Facebook versucht, die Wünsche seiner Benutzer zu formen und vorherzusagen. Facebook schätzt, in welchem Maße ein Benutzer eine Nachricht mögen oder nicht mögen wird, die der Benutzer noch nicht erlebt hat. Um einen Verlust an Benutzerbeteiligung zu vermeiden, wählt Facebook dann, Nachrichten zu umgehen, die die Beteiligung verringern könnten, und wählt stattdessen, den Benutzer zu engagieren, indem er Nachrichten füttert, die die Bestätigungsverzerrung füttern, um mehr Klicks, Kommentare, Likes und Shares zu erhalten.
Facebook verwendet auch automatisierte kollaborative Filterung historischer Benutzeraktionen und Meinungen, um automatisch Teilnehmer (Freunde) mit ähnlichen Meinungen zu matchen. Facebook verwendet eine Nutzenfunktion, die automatisch und mathematisch die Präferenzen für Elemente vorhersagt und bewertet, die Sie sehen möchten.
Dies führt dazu, dass Benutzer in ein Kaninchenloch fallen, sie sind in falschen Nachrichten gefangen, werden mit Inhalten gefüttert, die ihre Verzerrung verstärken. Der präsentierte Inhalt ist von Natur aus so konzipiert, dass er beeinflusst, auf was Sie klicken. Wenn Sie beispielsweise an die Verschwörung glauben, dass Bill Gates versucht, die menschliche Bevölkerung durch den Einsatz von Impfstoffen zu mikrochippen, warum sollte Facebook Ihnen widersprechende Beweise präsentieren, die Sie dazu bringen könnten, sich von der Plattform abzuwenden? Wenn Sie einen bestimmten politischen Kandidaten unterstützen, warum sollte Facebook Ihnen Nachrichten anbieten, die Ihre positiven Ansichten über diesen Kandidaten widersprechen?
Als ob dies nicht ausreichend wäre, engagiert Facebook auch, was als “soziales Beweis” bekannt ist. Soziales Beweis ist das Konzept, dass Menschen den Handlungen der Massen folgen. Die Idee ist, dass seit so viele andere Menschen sich auf eine bestimmte Weise verhalten, es das richtige Verhalten sein muss.
Facebook bietet diesen sozialen Beweis im Kontext von Likes, Kommentaren oder Shares. Da nur bestimmte Freunde einen Newsfeed-Element sehen können (es sei denn, sie suchen speziell den Newsfeed eines Benutzers), dient der soziale Beweis einfach dazu, die Bestätigungsverzerrung zu verstärken.
Facebook verwendet auch Filterblasen, um die Exposition gegenüber widersprüchlichen, widersprechenden und herausfordernden Standpunkten zu begrenzen.
Facebook-Anzeigen
Unbekannte Facebook-Benutzer können auf Anzeigen klicken, ohne sich dessen bewusst zu sein, dass sie Anzeigen präsentiert bekommen. Der Grund dafür ist einfach, wenn es eine Anzeige gibt, sieht nur die erste Person, die die Anzeige präsentiert bekommt, die Anzeigendisclaimer. Wenn dieser Benutzer die Anzeige teilt, sehen alle auf seiner Freundesliste einfach die “Teilung” als Newsfeed-Element, da Facebook den Anzeigendisclaimer absichtlich fallen lässt. Sofort lassen die Benutzer ihre Wachsamkeit fallen, sie können nicht zwischen dem unterscheiden, was eine Anzeige ist und was organisch auf ihrem Newsfeed erscheinen würde.
Facebook-Teilungen
Leider wird es schlimmer. Wenn ein Benutzer 1000 Freunde hat, die gleichzeitig Inhalte teilen, priorisiert der Empfehlungsmotor Inhalte von der Minderheit, die die gleichen Ansichten hat, auch wenn diese oft aus unbewiesenen Verschwörungstheorien bestehen. Der Benutzer wird dann unter der Illusion stehen, dass diese Newsfeed-Elemente von allen gesehen werden. Durch die Interaktion mit diesem Newsfeed optimieren diese Benutzer gegenseitig ihren sozialen Beweis.
Sollte ein Benutzer versuchen, einen anderen Benutzer über ein irreführendes oder falsches Element aufzuklären, führt die bloße Handlung des Kommentierens oder der Interaktion mit dem Newsfeed einfach dazu, dass die ursprüngliche Benutzerbeteiligung erhöht wird. Diese Rückkopplungsschleife veranlasst Facebook, den Benutzer mit zusätzlichen falschen Nachrichten zu engagieren.
Dies verursacht eine Echo-Kammer, eine Filterblase, in der ein Benutzer trainiert wird, nur zu glauben, was er sieht. Die Wahrheit ist einfach eine Illusion.
Ernsthaftigkeit des Problems
Über 10 Millionen Menschen interagierten mit einem Newsfeed, der behauptete, dass Papst Franziskus sich für Trumps Wahl im Jahr 2016 ausgesprochen hat. Es gab keine Beweise dafür, es war einfach eine falsche Nachrichtengeschichte, die aus Russland stammte, und dennoch war dies die meistgeteilte Nachricht auf Facebook in den drei Monaten vor der Wahl 2016.
Die Nachricht wurde von einer russischen Troll-Farm generiert, die sich als “Internet Research Agency” bezeichnet. Diese gleiche Organisation war verantwortlich für die Förderung und Teilung auf Twitter und Facebook rassistischer Artikel, die sich gegen Black Lives Matter richteten, und für die Verbreitung von falschen Nachrichten, die falsche Behauptungen über amerikanische Politiker verbreiteten.
Der Select Committee on Intelligence veröffentlichte einen 85-seitigen Bericht, der russische Active-Measures-Kampagnen und Interferenzen detaillierte, die größtenteils die Verbreitung von spaltenden falschen Nachrichten und Propaganda umfassten, die ausschließlich darauf abzielten, die Wahl 2016 in den USA zu beeinflussen.
Im Jahr 2020 hat sich das Problem nur noch verschlimmert. Im September 2020, nach einem FBI-Tipp, suspendierten Facebook und Twitter soziale Medien-Konten für eine Nachrichtenorganisation namens PeaceData, die mit Russlands staatlichen Propaganda-Bemühungen in Verbindung steht.
Leider ist das Schließen von Konten eine temporäre und unwirksame Lösung. Russische Konten nehmen oft die Form von Freundschaftsanfragen an, oft von Frauen mit attraktiven Profilen, die Männer anvisieren, oder von gehackten Benutzerkonten mit einer Geschichte regelmäßiger Beiträge. Diese gehackten Konten verlagern sich langsam zu politischen Beiträgen, bis sie von Propaganda oder Verschwörungstheorien dominiert werden.
Ein ahnungsloser Benutzer kann sich nicht bewusst sein, dass das Konto eines Freundes kompromittiert wurde. Wenn dieser Benutzer anfällig für Verschwörungstheorien ist, kann er auf das falsche Newsfeed-Element reagieren, der russische Troll, der oft ein Bot ist, bietet dann zusätzlichen sozialen Beweis in Form von Likes oder Kommentaren.
Anfällige Benutzer sind oft diejenigen, die am wenigsten verstehen, wie Technologie und KI funktioniert. Die über 65-Jährigen, die die Bevölkerung sind, die am wahrscheinlichsten wählt, sind auch diejenigen, die am wahrscheinlichsten falsche Nachrichten verbreiten, wie von der New York Times berichtet wird.
Laut der Studie veröffentlichten Facebook-Benutzer im Alter von 65 und älter sieben Mal mehr Artikel von falschen Nachrichten-Websites als Erwachsene im Alter von 29 und jünger. Ein Mangel an digitaler Medienkompetenz hat diese Altersgruppe unvorbereitet auf einen Newsfeed, der nicht auf Fakten oder Genauigkeit basiert, sondern ausschließlich auf Benutzerbeteiligung.
Böse Akteure nutzen Facebooks Empfehlungsmotor aus, der unsere kognitiven Verzerrungen gegen uns ausnutzt. Diese gleichen Organisationen haben den Missbrauch von Facebooks KI optimiert, um Verschwörungstheorien und Propaganda zu verbreiten. Verschwörungstheorien, die anfangs harmlos erscheinen, werden oft als Trichter in den weißen Suprematismus, den rechten Nationalismus oder QAnon verwendet, eine bizarre Verschwörungstheorie, die Trump darin involviert, die Welt vor liberalen Pädophilen zu retten, eine Verschwörung, die keine Grundlage in der Realität hat.
Zusammenfassung
Facebook ist sich offensichtlich bewusst, dass es ein Problem gibt, und hat öffentlich eine Strategie angekündigt, die sich auf die Entfernung von Inhalten konzentriert, die Facebooks Community-Standards verletzen. Das Problem ist, dass das Löschen von Konten eine temporäre Notlösung ist, die unwirksam ist, wenn Konten in großer Zahl von Bots oder durch das massenhafte Hacken von Benutzerkonten generiert werden. Es löst auch nicht das Problem, dass die meisten Teile von regulären Benutzern geteilt werden, die sich nicht bewusst sind, dass sie Fehlinformationen verbreiten.
Das Hinzufügen von Warnlabels dient nur dazu, Verschwörungstheorien zu verstärken, dass soziale Medien-Riesen gegen Konservative voreingenommen sind, die am meisten anfällig für falsche Nachrichten sind.
Die Lösung muss ein neuer Empfehlungsmotor sein, der nicht nur die Benutzerbeteiligung misst, sondern auch auf Benutzerzufriedenheit optimiert ist, indem er Wahrheit und erhöhtes Selbstbewusstsein liefert.
In der Zwischenzeit sollte Facebook den Weg einschlagen, den Twitter eingeschlagen hat, um politische Anzeigen zu verbieten.
Schließlich muss eine wichtige Frage gestellt werden. Wenn Menschen keine Wahl mehr haben, welche Nachrichten sie sehen, wann hört es auf, eine Empfehlung zu sein und wird zu Gehirnwäsche?
Empfohlene Lektüre:
Russische Active-Measures-Kampagnen und Interferenzen – Bericht des Select Committee on Intelligence des US-Senats.
Das schockierende Papier, das das Ende der Demokratie vorhersagt – Von Rick Shenkman, Gründer des History News Network der George Washington University.
Ältere Menschen teilen falsche Nachrichten auf Facebook mehr – Von der New York Times












