Vernetzen Sie sich mit uns

Künstliche Intelligenz

KI-Browser-Tools zielen darauf ab, Deepfakes und andere gefälschte Medien zu erkennen

mm

Die Bemühungen von Technologieunternehmen, Fehlinformationen und gefälschte Inhalte zu bekämpfen, nehmen in jüngster Zeit Fahrt auf, da ausgefeilte Technologien zur Generierung gefälschter Inhalte wie DeepFakes einfacher zu verwenden und raffinierter werden. Ein bevorstehender Versuch, Menschen dabei zu helfen, Deepfakes zu erkennen und zu bekämpfen, ist RealityDefender, produziert von die AI Foundation, das sich der Entwicklung ethischer KI-Agenten und -Assistenten verschrieben hat, die Benutzer trainieren können, um verschiedene Aufgaben zu erledigen.

Das bemerkenswerteste Projekt der AI Foundation ist eine Plattform, die es Menschen ermöglicht, ihre eigenen digitalen Personas zu erstellen, die wie sie aussehen, und sie in virtuellen Treffpunkten darzustellen. Die AI Foundation wird vom Global AI Council beaufsichtigt und im Rahmen ihres Mandats muss sie die möglichen negativen Auswirkungen von KI-Plattformen antizipieren und dann versuchen, diesen Problemen einen Schritt voraus zu sein. Wie von VentureBeat berichtet, Eines der Tools, die die AI Foundation entwickelt hat, um bei der Erkennung von Deepfakes zu helfen, heißt Reality Defender. Reality Defender ist ein Tool, das eine Person in ihrem Webbrowser verwenden kann (überprüfen Sie das), das Videos, Bilder und andere Arten von Medien analysiert, um Anzeichen dafür zu erkennen, dass die Medien gefälscht oder auf irgendeine Weise verändert wurden. Man hofft, dass das Tool dazu beitragen kann, dem zunehmenden Strom von Deepfakes im Internet entgegenzuwirken, der sich Schätzungen zufolge in den letzten sechs Monaten etwa verdoppelt hat.

Reality Defender nutzt verschiedene KI-basierte Algorithmen, die Hinweise erkennen können, die darauf hindeuten, dass ein Bild oder Video gefälscht sein könnte. Die KI-Modelle erkennen subtile Anzeichen von Tricks und Manipulationen, und die vom Modell erkannten Fehlalarme werden von den Benutzern des Tools als falsch gekennzeichnet. Die Daten werden dann zum erneuten Trainieren des Modells verwendet. KI-Unternehmen, die nicht betrügerische Deepfakes erstellen, versehen ihre Inhalte mit einem „ehrlichen KI“-Tag oder Wasserzeichen, das es Menschen ermöglicht, die von der KI erzeugten Fälschungen leicht zu identifizieren.

Reality Defender ist nur eines aus einer Reihe von Tools und einer gesamten KI-Verantwortungsplattform, die die AI Foundation zu schaffen versucht. Die AI Foundation strebt die Schaffung von Guardian AI an, einer Verantwortungsplattform, die auf dem Grundsatz basiert, dass Einzelpersonen Zugang zu persönlichen KI-Agenten haben sollten, die für sie arbeiten und dabei helfen können, sich vor ihrer Ausbeutung durch schlechte Akteure zu schützen. Im Wesentlichen zielt die AI Foundation darauf ab, die Reichweite der KI in der Gesellschaft zu erweitern, sie mehr Menschen zugänglich zu machen und gleichzeitig vor den Risiken der KI zu schützen.

Reality Defender ist nicht das einzige neue KI-gesteuerte Produkt, das darauf abzielt, Fehlinformationen über die Vereinigten Staaten zu reduzieren. Ein ähnliches Produkt heißt SurfSafe und wurde von zwei Studenten der UC Berkeley, Rohan Phadte und Ash Bhat, entwickelt. Laut The Verge, SurfSafe funktioniert, indem es seinen Benutzern erlaubt, auf ein Medium zu klicken, das sie interessiert. Das Programm führt dann eine umgekehrte Bildersuche durch und versucht, ähnliche Inhalte aus verschiedenen vertrauenswürdigen Quellen im Internet zu finden, wobei es Bilder markiert, die dafür bekannt sind manipuliert.

Es ist unklar, wie effektiv diese Lösungen auf lange Sicht sein werden. Professor und Forensik-Experte am Dartmouth College Hany Farid wurde von The Verge zitiert Er sei „äußerst skeptisch“, ob Pläne für Systeme wie Reality Defender sinnvoll funktionieren werden. Farid erklärte, dass eine der größten Herausforderungen bei der Erkennung gefälschter Inhalte darin besteht, dass Medien nicht nur gefälscht oder echt sind. Farid erklärte:

„Es gibt ein Kontinuum; ein unglaublich komplexes Themenspektrum, mit dem man sich befassen muss. Manche Änderungen sind bedeutungslos, andere verändern die Natur eines Bildes grundlegend. Zu behaupten, wir könnten einer KI beibringen, den Unterschied zu erkennen, ist unglaublich naiv. Und zu behaupten, wir könnten Crowdsourcing betreiben, ist umso mehr.“

Darüber hinaus ist es schwierig, Crowdsourcing-Elemente wie das Markieren falscher Positivmeldungen zu integrieren, da Menschen in der Regel recht schlecht darin sind, gefälschte Bilder zu erkennen. Menschen machen oft Fehler und übersehen subtile Details, die ein Bild als Fälschung kennzeichnen. Es ist auch unklar, wie mit böswilligen Akteuren umgegangen werden soll, die Inhalte trollen, wenn sie Inhalte markieren.

Es ist wahrscheinlich, dass Tools zur Fälschungserkennung, um maximal wirksam zu sein, mit Bemühungen zur digitalen Kompetenz kombiniert werden müssen, die den Menschen beibringen, über die Inhalte nachzudenken, mit denen sie online interagieren.

Blogger und Programmierer mit Spezialisierung auf Maschinelles lernen und Tiefes Lernen Themen. Daniel hofft, anderen dabei zu helfen, die Macht der KI für das soziale Wohl zu nutzen.