Connect with us

Facebook verwendet Bots und Simulationen, um das schlechte Verhalten von Nutzern zu bekämpfen

Künstliche Intelligenz

Facebook verwendet Bots und Simulationen, um das schlechte Verhalten von Nutzern zu bekämpfen

mm

Facebook hat eine neue KI entwickelt, um schädliches, schädigendes und illegales Verhalten besser zu erkennen. Wie The Verge berichtet, haben die Forscher im Londoner AI-Department von Facebook einen AI-getriebenen Facebook-Simulator namens “WW” erstellt, der verwendet wird, um das Verhalten von Betrügern, illegalen Produktverkäufern, Spammern und anderen schlechten Akteuren auf einer simulierten Version von Facebook selbst zu simulieren.

Der Facebook-Simulator “WW”, der seinen Namen aus einer Abkürzung von “WWW” ableitet, wurde von Facebook in einem Papier im April dieses Jahres vorgestellt. WW ist eine geklonte, enthaltene Version von Facebook, die dazu dient, die Erprobung verschiedener Facebook-Tools und Algorithmen zu unterstützen.

Das Unternehmen hat kürzlich weitere Details über einige seiner Verwendungen für WW bekannt gegeben, darunter die Simulation von schlechten Akteuren durch KI. Durch die Verwendung einer Reihe von Bots, um Verhaltensweisen wie Betrug, Spam, Belästigung und mehr zu simulieren, hoffen die Forscher, dass sie in der Lage sein werden, schädliches Verhalten von Nutzern besser zu erkennen und zu bekämpfen.

Laut Facebook-Ingenieur Mark Harman, wie von The Verge zitiert, wird erwartet, dass WW ein wertvolles Werkzeug bei der Bekämpfung verschiedener schädlicher Verhaltensweisen auf Facebook sein wird. Zum Beispiel glaubt Harman, dass die Simulationen verwendet werden können, um bessere Methoden zur Erkennung von Betrügern zu entwickeln.

Facebook-Ingenieure haben das Verhalten von realen Facebook-Betrügern nachgeahmt, indem sie zwei Gruppen von Bots erstellten: eine Gruppe von Zielen und eine Gruppe von Betrügern. Betrüger suchen oft durch Netzwerke von Freunden, um die Freunde von Nutzern zu erkunden, um ein potenzielles Ziel zu finden. Dieses Verhalten wurde von den Betrüger-Bots nachgeahmt, als die Ingenieure mit verschiedenen Methoden experimentierten, um den unschuldigen Bot vor Betrug zu schützen. Die Taktiken, mit denen sie experimentierten, umfassten numerous Einschränkungen wie die Begrenzung der Anzahl von privaten Nachrichten, die ein Bot pro Minute senden konnte.

Es gibt einige Möglichkeiten, wie die simulierte Facebook-Version sich von der realen unterscheidet. Zum einen enthält die Simulation von Facebook keine visuellen Elemente, so dass die aus der Simulation abgeleiteten Daten alle in numerischer Form und Statistiken über Interaktionen zwischen Bots vorliegen. Zum anderen sind alle Akteure in der Simulation Bots, die nicht in der Lage sind, mit realen Nutzern zu interagieren. Die WW-Simulation kann auch nicht für Dinge wie Benutzervorhaben oder den Inhalt einer bestimmten Konversation berücksichtigen, da nur die Aktionen des Sendens von Nachrichten, Kommentieren usw. simuliert werden.

Laut Harman ist dieser Prozess des Experimentierens mit Einschränkungen ähnlich wie bei Stadtplanern, die versuchen, die Geschwindigkeit auf bestimmten Straßen durch das Anlegen von “Geschwindigkeitsbegrenzungen” zu reduzieren. Ähnlich wie ein Stadtplaner Geschwindigkeitsbegrenzungen erstellen und dann Daten über ihre Nützlichkeit sammeln würde, analysierten die Ingenieure, wie Nachrichten und Interaktionen zwischen Bots in ihrem Simulator variierten, als sie Parameter und Einschränkungen variierten. Harman erklärt, dass das Ziel darin besteht, eine Vorstellung davon zu bekommen, welche Änderungen an der Facebook-Plattform vorgenommen werden könnten, um schädliches Verhalten zu hemmen, ohne normales Verhalten oder den freien Fluss des Verkehrs stark zu beschränken.

Harman erklärt auch, dass der Vorteil der Verwendung von WW für ihre Simulationen darin besteht, dass die Aktionen, die sie untersuchen, auf realer Facebook-Infrastruktur stattfinden, was ihnen eine viel bessere Vorstellung davon gibt, wie ihre vorgeschlagenen Änderungen realen Facebook-Nutzern beeinflussen könnten. Jede Anwendung dieser Erkenntnisse muss noch einige Zeit warten, da WW und seine Simulation derzeit nur in der Forschungsphase sind. Harman und andere Facebook-Forscher werden ihre Erkenntnisse noch nicht auf die Live-Version von Facebook anwenden, da noch viel Arbeit zu tun ist. Die Forschungsgruppe muss feststellen, ob die Simulationen, die sie erstellen, reales menschliches Verhalten ausreichend nachahmen.

Der Hauptvorteil von WW, laut Harman, ist seine Fähigkeit, auf einer riesigen Skala zu operieren, was es Facebook-Forschern ermöglicht, die potenziellen Konsequenzen von Tausenden von verschiedenen kleinen Anpassungen zu überprüfen, alles durch die Simulationen, die es produziert.

In der Zukunft könnten die Forscher den Bots vielleicht einfach spielen und experimentieren lassen, um zu sehen, welche Arten von Interaktionen sie auf eigene Faust entwickeln, was oft etwas ist, das Forscher nicht einmal erwarten.

“Im Moment liegt der Hauptfokus darin, die Bots zu trainieren, um Dinge nachzuahmen, die wir wissen, dass sie auf der Plattform passieren. Aber in der Theorie und in der Praxis können die Bots Dinge tun, die wir nicht gesehen haben”, sagte Harman. “Das ist tatsächlich etwas, das wir wollen, weil wir letztendlich vor dem schlechten Verhalten liegen wollen, anstatt ständig hinterherzulaufen.”

Wenn alles gut geht, könnte Facebook möglicherweise bereits Ende 2020 mit der Umsetzung von Änderungen auf der Grundlage von WWs Simulationen beginnen.

Blogger und Programmierer mit Spezialisierungen in Machine Learning und Deep Learning Themen. Daniel hofft, anderen zu helfen, die Macht von KI für das soziale Wohl zu nutzen.