Vernetzen Sie sich mit uns

Interviews

Alex Fink, Tech Executive, Gründer und CEO von Otherweb – Interviewreihe

mm

Alex Fink ist ein Tech Executive und der Gründer und CEO der Anderes Web, eine gemeinnützige Organisation, die mithilfe künstlicher Intelligenz Menschen dabei unterstützt, Nachrichten und Kommentare zu lesen, Podcasts zu hören und im Internet zu suchen – ohne Paywalls, Clickbait, Werbung, automatisch abgespielte Videos, Affiliate-Links oder andere wertlose Inhalte. Otherweb ist als App (iOS und Android), Website, Newsletter und eigenständige Browsererweiterung verfügbar. Vor Otherweb war Alex Gründer und CEO von Panopteo sowie Mitgründer und Vorsitzender von Swarmer.

Können Sie einen Überblick über Otherweb und seine Mission geben, einen Junk-freien Nachrichtenraum zu schaffen?

Otherweb ist ein gemeinnütziges Unternehmen, das mit dem Ziel gegründet wurde, die Qualität der von den Menschen konsumierten Informationen zu verbessern.

Unser Hauptprodukt ist eine Nachrichten-App, die mithilfe künstlicher Intelligenz Junk-News herausfiltert und den Benutzern unbegrenzte Anpassungsmöglichkeiten bietet – wobei jede Qualitätsschwelle und jeder Sortiermechanismus, den die App verwendet, kontrolliert wird.

Mit anderen Worten: Während der Rest der Welt Black-Box-Algorithmen entwickelt, um das Engagement der Benutzer zu maximieren, möchten wir den Benutzern so viel Wert wie möglich in so kurzer Zeit wie möglich bieten und alles individuell anpassen. Wir haben sogar unsere KI-Modelle und Datensätze quellenverfügbar gemacht, damit die Leute genau sehen können, was wir tun und wie wir Inhalte bewerten.

Was hat Sie dazu inspiriert, sich auf die Bekämpfung von Desinformation und Fake News mithilfe von KI zu konzentrieren?

Ich wurde in der Sowjetunion geboren und habe gesehen, was mit einer Gesellschaft passiert, wenn jeder Propaganda konsumiert und niemand eine Ahnung hat, was in der Welt vor sich geht. Ich erinnere mich noch lebhaft daran, wie meine Eltern um 4 Uhr morgens aufwachten, sich in den Schrank einschlossen und das Radio einschalteten, um Voice of America zu hören. Das war natürlich illegal, weshalb sie es nachts taten und dafür sorgten, dass die Nachbarn es nicht hören konnten – aber es verschaffte uns Zugang zu echten Informationen. Deshalb verließen wir die Stadt drei Monate, bevor alles zusammenbrach und in meiner Heimatstadt der Krieg ausbrach.

Ich kann mich noch daran erinnern, wie ich in der Straße, in der ich aufgewachsen bin, Fotos von Panzern gesehen und gedacht habe: „Das ist also der Wert echter Informationen.“

Ich möchte, dass mehr Menschen Zugang zu echten, qualitativ hochwertigen Informationen haben.

Wie groß ist die Bedrohung durch Deepfakes, insbesondere im Zusammenhang mit der Beeinflussung von Wahlen? Können Sie konkrete Beispiele dafür nennen, wie Deepfakes zur Verbreitung von Falschinformationen eingesetzt wurden und welche Auswirkungen sie hatten?

Kurzfristig ist es eine sehr ernste Bedrohung.

Den Wählern ist nicht klar, dass Video- und Audioaufzeichnungen nicht mehr vertrauenswürdig sind. Sie glauben, Videos seien Beweise dafür, dass etwas passiert ist. Vor zwei Jahren war das noch so, aber jetzt ist das offensichtlich nicht mehr der Fall.

In diesem Jahr erhielten Imran Khan-Wähler in Pakistan Anrufe von Imran Khan persönlich, in denen er sie aufforderte, die Wahl zu boykottieren. Natürlich war das eine Fälschung, aber viele Leute glaubten es.

Wähler in Italien sahen eine ihrer Politikerinnen in einem pornografischen Video. Natürlich war das Video eine Fälschung, aber als die Fälschung aufflog, war der Schaden bereits angerichtet.

Sogar hier in Arizona haben wir einen Newsletter gesehen, der sich selbst bewarb, indem er ein Werbevideo mit Kari Lake zeigte. Sie hat ihn natürlich nie beworben, aber der Newsletter hatte trotzdem Tausende von Abonnenten.

Ich denke, es ist fast unvermeidlich, dass wir im November mindestens eine falsche Bombe erleben werden. Und es ist sehr wahrscheinlich, dass sie kurz vor der Wahl platzt und sich kurz nach der Wahl als Fälschung herausstellt – wenn der Schaden bereits angerichtet ist.

Wie effektiv sind aktuelle KI-Tools beim Erkennen von Deepfakes und welche Verbesserungen erwarten Sie für die Zukunft?

In der Vergangenheit bestand die beste Methode zum Erkennen gefälschter Bilder darin, hineinzuzoomen und nach den typischen Fehlern (den sogenannten „Artefakten“) zu suchen, die die Ersteller der Bilder häufig machten. Falsche Beleuchtung, fehlende Schatten, ungleichmäßige Kanten bestimmter Objekte, übermäßige Komprimierung um die Objekte herum usw.

Das Problem bei der GAN-basierten Bearbeitung (auch „Deepfake“ genannt) besteht darin, dass keines dieser üblichen Artefakte vorhanden ist. Der Prozess funktioniert so, dass ein KI-Modell das Bild bearbeitet und ein anderes KI-Modell nach Artefakten sucht und diese anzeigt – und der Zyklus wird immer wieder wiederholt, bis keine Artefakte mehr vorhanden sind.

Daher besteht in der Regel keine Möglichkeit, ein gut gemachtes Deepfake-Video anhand des Inhalts selbst zu erkennen.

Wir müssen unsere Denkweise ändern und davon ausgehen, dass der Inhalt nur dann echt ist, wenn wir seine Herkunft bis zur Quelle zurückverfolgen können. Man kann es sich wie Fingerabdrücke vorstellen. Fingerabdrücke auf der Tatwaffe zu sehen, reicht nicht aus. Man muss wissen, wer die Tatwaffe gefunden hat, wer sie in den Lagerraum zurückgebracht hat usw. – man muss in der Lage sein, jeden einzelnen Besitzerwechsel nachzuverfolgen und sicherzustellen, dass sie nicht manipuliert wurde.

Welche Maßnahmen können Regierungen und Technologieunternehmen ergreifen, um die Verbreitung von Fehlinformationen in kritischen Zeiten wie Wahlen zu verhindern?

Das beste Gegenmittel gegen Fehlinformationen ist Zeit. Wenn Sie etwas sehen, das die Dinge verändert, veröffentlichen Sie es nicht voreilig – nehmen Sie sich ein oder zwei Tage Zeit, um zu überprüfen, ob es tatsächlich wahr ist.

Leider steht dieser Ansatz im Widerspruch zum Geschäftsmodell der Medien, das Klicks auch dann belohnt, wenn sich das Material als falsch herausstellt.

Wie nutzt Otherweb KI, um die Authentizität und Genauigkeit der von ihm aggregierten Nachrichten sicherzustellen?

Wir haben festgestellt, dass es einen starken Zusammenhang zwischen Korrektheit und Form gibt. Menschen, die die Wahrheit sagen wollen, neigen dazu, eine bestimmte Sprache zu verwenden, die Zurückhaltung und Bescheidenheit betont, während Menschen, die die Wahrheit missachten, versuchen, so viel Aufmerksamkeit wie möglich zu erregen.

Otherwebs größter Fokus liegt nicht auf der Überprüfung von Fakten, sondern auf der Überprüfung der Form. Wir wählen Artikel aus, die aufdringliche Sprache vermeiden, für jede Behauptung externe Referenzen liefern, die Dinge so darstellen, wie sie sind, und keine Überredungstechniken verwenden.

Diese Methode ist natürlich nicht perfekt, und theoretisch könnte ein schlechter Schauspieler eine Unwahrheit genau in dem Stil schreiben, den unsere Modelle belohnen. Aber in der Praxis passiert das einfach nicht. Menschen, die lügen wollen, wollen auch viel Aufmerksamkeit – das ist es, was wir unseren Modellen beigebracht haben, zu erkennen und herauszufiltern.

Da es immer schwieriger wird, echte von gefälschten Bildern zu unterscheiden, stellt sich die Frage: Wie können Plattformen wie Otherweb dazu beitragen, das Vertrauen der Benutzer in digitale Inhalte wiederherzustellen?

Der beste Weg, Menschen zu helfen, bessere Inhalte zu konsumieren, besteht darin, alle Seiten zu prüfen, das Beste von jeder Seite auszuwählen und viel Zurückhaltung zu üben. Die meisten Medien veröffentlichen heutzutage schnell ungeprüfte Informationen. Unsere Fähigkeit, Informationen aus Hunderten von Quellen zu vergleichen und uns auf die besten zu konzentrieren, ermöglicht es uns, unsere Benutzer vor den meisten Formen von Fehlinformationen zu schützen.

Welche Rolle spielen Metadaten, wie C2PA-Standards, spielen sie bei der Überprüfung der Echtheit von Bildern und Videos eine Rolle?

Es ist die einzige praktikable Lösung. C2PA ist vielleicht der richtige Standard, vielleicht aber auch nicht, aber es ist klar, dass die einzige Möglichkeit, zu überprüfen, ob das Video, das Sie gerade ansehen, tatsächlich etwas widerspiegelt, das in der Realität passiert ist, darin besteht, a) sicherzustellen, dass die Kamera, mit der das Video aufgenommen wurde, nur aufgenommen und nicht bearbeitet hat, und b) sicherzustellen, dass niemand das Video bearbeitet hat, nachdem es die Kamera verlassen hat. Der beste Weg, dies zu tun, besteht darin, sich auf Metadaten zu konzentrieren.

Welche zukünftigen Entwicklungen erwarten Sie im Kampf gegen Desinformation und Deepfakes?

Ich denke, dass sich die Menschen innerhalb von zwei bis drei Jahren an die neue Realität anpassen und ihre Denkweise ändern werden. Vor dem 2. Jahrhundert war die Aussage von Augenzeugen die beste Beweisform. Deepfakes werden uns wahrscheinlich dazu veranlassen, zu diesen bewährten Standards zurückzukehren.

Was Falschinformationen im weiteren Sinne betrifft, ist es meiner Meinung nach notwendig, eine differenziertere Sichtweise einzunehmen und zwischen Desinformationen (also falschen Informationen, die mit der Absicht erstellt werden, die Irre zu führen) und Junkinformationen (also Informationen, die erstellt werden, um damit Geld zu verdienen, ungeachtet ihres Wahrheitsgehalts) zu unterscheiden.

Das Gegenmittel gegen Junk ist ein Filtermechanismus, der die Verbreitung von Junk verringert. Dies würde die Anreizstruktur verändern, die dafür sorgt, dass sich Junk wie ein Lauffeuer verbreitet. Desinformation wird es weiterhin geben, so wie es sie schon immer gegeben hat. Wir sind im 20. Jahrhundert damit klargekommen und werden auch im 21. Jahrhundert damit klarkommen.

Es ist die Müllflut, die uns Sorgen machen muss, denn für diesen Teil sind wir derzeit schlecht gerüstet. Das ist das Hauptproblem, mit dem sich die Menschheit auseinandersetzen muss.

Sobald wir die Anreize ändern, wird sich das Signal-Rausch-Verhältnis des Internets für alle verbessern.

Vielen Dank für das tolle Interview, Leser, die mehr erfahren möchten, sollten hier vorbeischauen Otherweb-Website, Oder folge ihnen weiter X or LinkedIn.

Antoine ist ein visionärer Leiter und Gründungspartner von Unite.AI, angetrieben von einer unerschütterlichen Leidenschaft für die Gestaltung und Förderung der Zukunft von KI und Robotik. Als Serienunternehmer glaubt er, dass KI für die Gesellschaft ebenso umwälzend sein wird wie Elektrizität, und schwärmt oft vom Potenzial disruptiver Technologien und AGI.

Als Futuristwidmet er sich der Erforschung, wie diese Innovationen unsere Welt prägen werden. Darüber hinaus ist er der Gründer von Wertpapiere.io, eine Plattform, deren Schwerpunkt auf Investitionen in Spitzentechnologien liegt, die die Zukunft neu definieren und ganze Branchen umgestalten.