Interviews
Alex Fink, Tech-Executive, Gründer & CEO von Otherweb – Interview-Serie

Alex Fink ist ein Tech-Executive und der Gründer und CEO von Otherweb, einer Public Benefit Corporation, die künstliche Intelligenz (KI) nutzt, um Menschen dabei zu helfen, Nachrichten und Kommentare zu lesen, Podcasts anzuhören und im Internet zu suchen, ohne Paywalls, Clickbait, Werbung, automatisch abspielende Videos, Affiliate-Links oder andere “Müll”-Inhalte. Otherweb ist als App (iOS und Android), Website, Newsletter oder eigenständige Browser-Erweiterung verfügbar. Vor Otherweb war Alex Gründer und CEO von Panopteo und Mitgründer und Vorsitzender von Swarmer.
Können Sie einen Überblick über Otherweb und seine Mission, einen junkfreien Nachrichtenraum zu schaffen, geben?
Otherweb ist eine Public Benefit Corporation, die gegründet wurde, um die Qualität der Informationen zu verbessern, die Menschen konsumieren.
Unser Hauptprodukt ist eine Nachrichten-App, die KI verwendet, um Müll herauszufiltern und den Nutzern unbegrenzte Anpassungsmöglichkeiten zu bieten – die Kontrolle über jeden Qualitäts- und Sortiermechanismus, den die App verwendet.
Mit anderen Worten, während der Rest der Welt Black-Box-Algorithmen erstellt, um die Nutzerbeteiligung zu maximieren, möchten wir den Nutzern so viel Wert wie möglich in so wenig Zeit wie möglich bieten und machen alles anpassbar. Wir haben sogar unsere KI-Modelle und -Datensätze als Open-Source verfügbar gemacht, damit die Menschen genau sehen können, was wir tun und wie wir Inhalte bewerten.
Was hat Sie inspiriert, sich auf den Kampf gegen Fehlinformationen und Fake News mit KI zu konzentrieren?
Ich bin in der Sowjetunion geboren und habe gesehen, was passiert, wenn eine Gesellschaft nur Propaganda konsumiert und niemand eine Ahnung davon hat, was in der Welt passiert. Ich erinnere mich lebhaft daran, wie meine Eltern um 4 Uhr morgens aufstanden, sich in den Schrank einschlossen und das Radio einschalteten, um Voice of America zu hören. Es war natürlich verboten, weswegen sie es nachts taten und sicherstellten, dass die Nachbarn es nicht hören konnten – aber es gab uns Zugang zu echten Informationen. Als Ergebnis verließen wir drei Monate vor dem Zusammenbruch und dem Ausbruch des Krieges in meiner Heimatstadt.
Ich erinnere mich daran, Fotos von Panzern auf der Straße gesehen zu haben, auf der ich aufgewachsen bin, und dachte: “So viel ist echte Information wert”.
Ich möchte, dass mehr Menschen Zugang zu echten, hochwertigen Informationen haben.
Wie groß ist die Bedrohung durch Deepfakes, insbesondere im Kontext der Beeinflussung von Wahlen? Können Sie spezifische Beispiele nennen, wie Deepfakes verwendet wurden, um Fehlinformationen zu verbreiten und welche Auswirkungen sie hatten?
Auf kurze Sicht ist es eine sehr ernste Bedrohung.
Wähler realisieren nicht, dass Video- und Audioaufnahmen nicht mehr vertrauenswürdig sind. Sie denken, Video sei der Beweis dafür, dass etwas passiert ist, und vor zwei Jahren war das noch der Fall, aber jetzt ist es offensichtlich nicht mehr so.
In diesem Jahr in Pakistan erhielten Wähler von Imran Khan Anrufe von Imran Khan selbst, persönlich, in denen sie aufgefordert wurden, die Wahl zu boykottieren. Es war natürlich falsch, aber viele Menschen glaubten es.
Wähler in Italien sahen, wie eine ihrer weiblichen Politiker in einem pornografischen Video erschien. Es war natürlich falsch, aber bis die Falschheit aufgedeckt wurde – der Schaden war bereits angerichtet.
Sogar hier in Arizona sahen wir, wie ein Newsletter sich selbst bewarb, indem er ein Endorsement-Video mit Kari Lake zeigte. Sie hatte es natürlich nicht unterstützt, aber der Newsletter erhielt trotzdem Tausende von Abonnenten.
Also denke ich, dass es im November fast unvermeidlich ist, dass wir mindestens einen falschen Knaller sehen werden. Und es ist sehr wahrscheinlich, dass er kurz vor der Wahl erscheint und sich nach der Wahl als falsch herausstellt – wenn der Schaden bereits angerichtet wurde.
Wie effektiv sind aktuelle KI-Tools bei der Identifizierung von Deepfakes, und welche Verbesserungen erwarten Sie in der Zukunft?
In der Vergangenheit war die beste Methode, um gefälschte Bilder zu identifizieren, ein Zoomen und das Suchen nach den charakteristischen Fehlern (auch “Artifacts” genannt), die Bildbearbeiter tendenziell machen. Falsche Beleuchtung, fehlende Schatten, ungleichmäßige Kanten an bestimmten Objekten, Überkomprimierung um Objekte herum usw.
Das Problem mit GAN-basiertem Bearbeiten (auch “Deepfake” genannt) ist, dass keine dieser üblichen Artefakte vorhanden sind. Der Prozess funktioniert so, dass ein KI-Modell das Bild bearbeitet und ein anderes KI-Modell nach Artefakten sucht und sie aufzeigt – und der Zyklus wird wiederholt, bis keine Artefakte mehr vorhanden sind.
Als Ergebnis gibt es im Allgemeinen keinen Weg, um einen gut gemachten Deepfake-Video zu identifizieren, indem man sich den Inhalt selbst ansieht.
Wir müssen unsere Denkweise ändern und anfangen, anzunehmen, dass der Inhalt nur dann echt ist, wenn wir seine Herkunft zurückverfolgen können. Denken Sie daran wie Fingerabdrücke. Das Sehen von Fingerabdrücken auf der Mordwaffe ist nicht genug. Sie müssen wissen, wer die Mordwaffe gefunden hat, wer sie in den Lagerraum gebracht hat usw. – Sie müssen in der Lage sein, jede einzelne Zeit zu verfolgen, in der sie die Hände gewechselt hat, und sicherstellen, dass sie nicht manipuliert wurde.
Welche Maßnahmen können Regierungen und Technologieunternehmen ergreifen, um die Verbreitung von Fehlinformationen während kritischer Zeiten wie Wahlen zu verhindern?
Das beste Gegenmittel gegen Fehlinformationen ist Zeit. Wenn Sie etwas sehen, das alles ändert, veröffentlichen Sie es nicht sofort – nehmen Sie sich ein oder zwei Tage Zeit, um zu überprüfen, ob es wirklich wahr ist.
Leider kollidiert dieser Ansatz mit dem Geschäftsmodell der Medien, das Klicks belohnt, auch wenn das Material sich als falsch herausstellt.
Wie nutzt Otherweb KI, um die Echtheit und Genauigkeit der aggregierten Nachrichten zu gewährleisten?
Wir haben festgestellt, dass es eine starke Korrelation zwischen Richtigkeit und Form gibt. Menschen, die die Wahrheit sagen wollen, neigen dazu, eine bestimmte Sprache zu verwenden, die Zurückhaltung und Bescheidenheit betont, während Menschen, die die Wahrheit missachten, versuchen, so viel Aufmerksamkeit wie möglich zu erregen.
Otherwebs größter Fokus liegt nicht auf Faktenprüfung. Es liegt auf Form-Prüfung. Wir wählen Artikel aus, die auffällige Sprache vermeiden, externe Referenzen für jeden Anspruch liefern, Dinge so darstellen, wie sie sind, und keine Überzeugungstechniken verwenden.
Diese Methode ist natürlich nicht perfekt, und in der Theorie könnte ein schlechter Akteur eine Falschheit in genau dem Stil schreiben, den unsere Modelle belohnen. Aber in der Praxis passiert das einfach nicht. Menschen, die lügen wollen, wollen auch viel Aufmerksamkeit – das ist das, was wir unseren Modellen beigebracht haben, zu erkennen und zu filtern.
Wie kann Otherweb dabei helfen, das Vertrauen der Nutzer in digitale Inhalte wiederherzustellen, angesichts der zunehmenden Schwierigkeit, echte von gefälschten Bildern zu unterscheiden?
Die beste Methode, um Menschen dabei zu helfen, bessere Inhalte zu konsumieren, ist, von allen Seiten zu sampeln, das Beste aus jedem auszuwählen und viel Zurückhaltung zu üben. Die meisten Medien sind heute darauf aus, unverifizierte Informationen zu veröffentlichen. Unsere Fähigkeit, Informationen aus Hunderten von Quellen zu kreuzverweisen und uns auf die besten Artikel zu konzentrieren, ermöglicht es uns, unsere Nutzer vor den meisten Formen von Fehlinformationen zu schützen.
Welche Rolle spielt Metadaten wie C2PA-Standards bei der Überprüfung der Echtheit von Bildern und Videos?
Es ist die einzige praktikable Lösung. C2PA mag oder mag nicht der richtige Standard sein, aber es ist klar, dass der einzige Weg, um zu überprüfen, ob das Video, das Sie ansehen, etwas widerspiegelt, das tatsächlich in der Realität passiert ist, darin besteht, a) sicherzustellen, dass die Kamera, die das Video aufgenommen hat, nur aufgenommen und nicht bearbeitet hat, und b) sicherzustellen, dass niemand das Video nach dem Verlassen der Kamera bearbeitet hat. Der beste Weg, um das zu tun, ist, sich auf Metadaten zu konzentrieren.
Welche zukünftigen Entwicklungen erwarten Sie im Kampf gegen Fehlinformationen und Deepfakes?
Ich denke, dass die Menschen innerhalb von 2-3 Jahren sich an die neue Realität anpassen und ihre Denkweise ändern werden. Bevor dem 19. Jahrhundert war der beste Beweis die Aussage von Augenzeugen. Deepfakes werden wahrscheinlich dazu führen, dass wir zu diesen bewährten Standards zurückkehren.
Bei Fehlinformationen im Allgemeinen glaube ich, dass es notwendig ist, eine nuanciertere Sicht zu haben und Desinformation (d. h. falsche Informationen, die absichtlich erstellt werden, um zu täuschen) von Müll (d. h. Informationen, die erstellt werden, um zu verdienen, unabhängig von ihrer Wahrheit) zu trennen.
Das Gegenmittel gegen Müll ist ein Filtermechanismus, der es unwahrscheinlicher macht, dass Müll sich verbreitet. Es würde die Anreizstruktur ändern, die es Müll ermöglicht, sich wie ein Lauffeuer zu verbreiten. Desinformation wird immer noch existieren, genau wie sie immer existiert hat. Wir konnten damit umgehen im 20. Jahrhundert, und wir werden damit umgehen im 21. Jahrhundert.
Es ist der Müll, über den wir uns Sorgen machen müssen, weil das der Teil ist, mit dem wir derzeit nicht umgehen können. Das ist das Hauptproblem, das die Menschheit angehen muss.
Sobald wir die Anreize ändern, wird das Signal-Rausch-Verhältnis des Internets für jeden verbessert.
Vielen Dank für das großartige Interview. Leser, die mehr erfahren möchten, sollten die Otherweb-Website besuchen oder ihnen auf X oder LinkedIn folgen.












