Vordenker
Deepfakes und die Navigation in der neuen Ära der synthetischen Medien
Erinnern Sie sich an “fake news”? Der Begriff wurde so ausgiebig (und missbräuchlich) verwendet, dass es schwerfällt, sich daran zu erinnern, worauf er ursprünglich hindeutete. Aber das Konzept hat einen sehr spezifischen Ursprung. Vor zehn Jahren begannen Journalisten, die Alarmglocken über einen Zustrom von vermeintlichen “Nachrichten”-Seiten zu läuten, die falsche, oft abwegige Behauptungen über Politiker und Celebrities verbreiteten. Viele konnten sofort erkennen, dass diese Seiten illegitim waren.
Aber viele andere hatten nicht die kritischen Werkzeuge, um dies zu erkennen. Das Ergebnis war die erste Unruhe einer epistemologischen Krise, die jetzt das Internet zu umfassen droht – eine, die ihre beunruhigendste Manifestation mit dem Aufstieg von deepfakes erreicht hat.
Im Vergleich zu einem auch nur ansprechenden Deepfake scheinen die “fake news”-Websites von einst harmlos. Schlimmer noch, sogar diejenigen, die glauben, über relativ hohe Medienkompetenz zu verfügen, sind gefährdet, hereingefallen zu werden. Synthetische Medien, die mit Hilfe von deep learning-Algorithmen und generativer KI erstellt werden, haben das Potenzial, die Grundlagen unserer Gesellschaft zu zerstören. Laut Deloitte könnten sie in diesem Jahr allein Unternehmen durch gefälschte Transaktionen und andere Arten von Betrug mehr als 250 Millionen Dollar kosten. Währenddessen hat der Weltwirtschaftsforum Deepfakes als “eine der beunruhigendsten Anwendungen von KI” bezeichnet und auf das Potenzial von “agenda-getriebenen, Echtzeit-KI-Chatbots und Avataren” hingewiesen, um neue Arten von ultrapersönlicher (und ultrawirksamer) Manipulation zu ermöglichen.
Die vom Weltwirtschaftsforum vorgeschlagene Reaktion auf dieses Problem ist eine sinnvolle: Sie befürworten eine “zero-trust-Einstellung“, die einen gewissen Skeptizismus in jeden Umgang mit digitalen Medien bringt. Wenn wir zwischen Authentischem und Synthetischem in Zukunft unterscheiden wollen – insbesondere in immersiven Online-Umgebungen – wird eine solche Einstellung immer essentieller.
Zwei Ansätze zur Bekämpfung der Deepfake-Krise
Die Bekämpfung der grassierenden Desinformation, die durch synthetische Medien geboren wird, wird, meiner Meinung nach, zwei unterschiedliche Ansätze erfordern.
Der erste umfasst die Verifizierung: Eine einfache Möglichkeit für den durchschnittlichen Internetnutzer, zu bestimmen, ob das Video, das er ansieht, tatsächlich authentisch ist. Solche Tools sind bereits in Branchen wie der Versicherungswirtschaft weit verbreitet, da das Potenzial von Bösewichten besteht, falsche Ansprüche mit Hilfe von bearbeiteten Videos, Fotografien und Dokumenten zu stellen. Die Demokratisierung dieser Tools – sie kostenlos und leicht zugänglich zu machen – ist ein entscheidender erster Schritt in diesem Kampf, und wir sehen bereits eine signifikante Bewegung in dieser Richtung.
Der zweite Schritt ist weniger technischer Natur und damit eine Herausforderung: nämlich das Bewusstsein zu schärfen und kritische Denkfähigkeiten zu fördern. Im Nachgang des ursprünglichen “fake news”-Skandals im Jahr 2015 entwickelten Non-Profit-Organisationen im ganzen Land Medienkompetenz-Programme und arbeiteten daran, Best Practices zu verbreiten, oft in Partnerschaft mit lokalen zivilen Institutionen, um den durchschnittlichen Bürger zu befähigen, Falschheiten zu erkennen. Natürlich ist das alte “fake news” im Vergleich zu den fortschrittlichsten Deepfakes Kinderspiel, was bedeutet, dass wir unsere Bemühungen auf diesem Gebiet verdoppeln und in Bildung auf allen Ebenen investieren müssen.
Fortgeschrittene Deepfakes erfordern fortgeschrittenes kritisches Denken
Natürlich waren diese Bildungsinitiativen etwas einfacher zu unternehmen, als die Desinformation textbasiert war. Bei den “fake news”-Seiten waren die verräterischen Anzeichen von Betrug oft offensichtlich: amateurhafte Webdesigns, zahlreiche Tippfehler, seltsame Quellen. Bei Deepfakes sind die Anzeichen viel subtiler – und oft unmöglich zu erkennen, wenn man sie zum ersten Mal sieht.
Dementsprechend müssen Internetnutzer aller Altersgruppen sich effektiv umschulen, um digitale Videos auf Deepfake-Indikatoren zu überprüfen. Das bedeutet, dass man auf eine Reihe von Faktoren achten muss. Für Videos könnte das unscharfe, unecht aussehende Bereiche und Schatten bedeuten; unnatürlich aussehende Gesichtsbewegungen und Ausdrücke; zu perfekte Hauttöne; inkonsistente Muster in Kleidung und Bewegungen; Lippen synchronisationsfehler; und so weiter. Für Audio könnte das bedeuten, Stimmen, die zu rein klingen (oder offensichtlich digitalisiert sind), ein Mangel an einem menschlichem emotionalen Ton, seltsame Sprechmuster oder ungewöhnliche Formulierungen.
Kurzfristig kann diese Art von Selbstschulung sehr nützlich sein. Indem wir uns immer wieder fragen, Sieht das verdächtig aus?, schärfen wir nicht nur unsere Fähigkeit, Deepfakes zu erkennen, sondern auch unsere kritischen Denkfähigkeiten im Allgemeinen. Allerdings nähern wir uns schnell einem Punkt, an dem nicht einmal das bestausgebildete Auge in der Lage sein wird, Fakt und Fiktion ohne äußere Hilfe zu unterscheiden. Die visuellen Anzeichen – die oben genannten Unregelmäßigkeiten – werden technisch geglättet, so dass vollständig hergestellte Clips nicht von den echten zu unterscheiden sind. Was uns bleiben wird, ist unsere situative Intuition – unsere Fähigkeit, uns Fragen zu stellen wie Würde ein bestimmter Politiker oder Celebrity wirklich so etwas sagen? Ist der Inhalt dieses Videos plausibel?
In diesem Zusammenhang werden KI-Erkennungsplattformen unerlässlich. Wenn das bloße Auge für Deepfake-Erkennungszwecke irrelevant wird, können diese Plattformen als definitive Schiedsrichter der Realität dienen – Schutzräder gegen den epistemologischen Abgrund. Wenn ein Video echt aussieht, aber irgendwie verdächtig erscheint – was in den kommenden Monaten und Jahren immer öfter vorkommen wird -, können diese Plattformen uns in den Fakten verankern, indem sie die Grundwahrheit dessen bestätigen, was wir uns ansehen. Letztendlich kann uns bei einer so mächtigen Technologie nur das retten, was uns in diese Situation gebracht hat: KI selbst. Wir müssen Feuer mit Feuer bekämpfen – was bedeutet, gute KI zu verwenden, um die schlimmsten Missbräuche der Technologie zu bekämpfen.
Wirklich, die Erlangung dieser Fähigkeiten muss in keiner Weise ein zynischer oder negativer Prozess sein. Die Förderung einer zero-trust-Einstellung kann stattdessen als eine Gelegenheit betrachtet werden, das kritische Denken, die Intuition und das Bewusstsein zu schärfen. Indem wir uns immer wieder bestimmte Schlüsselfragen stellen – Steht das im Einklang mit der Vernunft? Steht das unter Verdacht? -, erhöhen wir unsere Fähigkeit, nicht nur gefälschte Medien, sondern die Welt im Allgemeinen zu meistern. Wenn es eine silberne Linie in der Deepfake-Ära gibt, ist dies sie. Wir werden gezwungen, selbst zu denken und empirischer in unserem täglichen Leben zu werden – und das kann nur gut sein.












