Connect with us

Künstliche Intelligenz

Was sind Deepfakes?

mm

Da Deepfakes einfacher zu erstellen und häufiger werden, wird ihnen mehr Aufmerksamkeit geschenkt. Deepfakes sind zum Mittelpunkt von Diskussionen über AI-Ethik, Fehlinformationen, Offenheit von Informationen und dem Internet sowie Regulierung geworden. Es lohnt sich, über Deepfakes informiert zu sein und ein intuitives Verständnis davon zu haben, was Deepfakes sind. Dieser Artikel wird die Definition eines Deepfakes klären, ihre Anwendungsfälle untersuchen, diskutieren, wie Deepfakes erkannt werden können, und die Auswirkungen von Deepfakes auf die Gesellschaft untersuchen.

Was sind Deepfakes?

Bevor wir weiter über Deepfakes sprechen, wäre es hilfreich, einige Zeit zu nehmen und zu klären, was “Deepfakes” tatsächlich sind. Es gibt eine erhebliche Verwirrung über den Begriff Deepfake, und oft wird der Begriff fälschlicherweise auf jede gefälschte Medien angewendet, unabhängig davon, ob es sich um ein echtes Deepfake handelt oder nicht. Um als Deepfake zu gelten, muss die gefälschte Medien mit einem maschinellen Lernsystem, insbesondere einem tiefen neuronalen Netzwerk, erstellt werden.

Der Schlüsselbestandteil von Deepfakes ist maschinelles Lernen. Maschinelles Lernen hat es ermöglicht, dass Computer Videos und Audio relativ schnell und einfach automatisch generieren können. Tiefe neuronale Netze werden auf Footage einer realen Person trainiert, damit das Netzwerk lernt, wie Menschen aussehen und sich unter den Zielumgebungsbedingungen bewegen. Das trainierte Netzwerk wird dann auf Bilder einer anderen Person angewendet und mit zusätzlichen Computer-Grafik-Techniken kombiniert, um die neue Person mit dem ursprünglichen Footage zu kombinieren. Ein Encoder-Algorithmus wird verwendet, um die Ähnlichkeiten zwischen dem ursprünglichen Gesicht und dem Zielgesicht zu bestimmen. Sobald die gemeinsamen Merkmale der Gesichter isoliert wurden, wird ein zweiter AI-Algorithmus namens Decoder verwendet. Der Decoder untersucht die codierten (komprimierten) Bilder und rekonstruiert sie basierend auf den Merkmalen in den ursprünglichen Bildern. Zwei Decoder werden verwendet, einer auf dem ursprünglichen Gesicht und der zweite auf dem Zielgesicht. Um den Austausch zu ermöglichen, wird der Decoder, der auf Bildern von Person X trainiert wurde, mit Bildern von Person Y gefüttert. Das Ergebnis ist, dass das Gesicht von Person Y über die Gesichtsausdrücke und die Orientierung von Person X rekonstruiert wird.

Derzeit dauert es noch eine erhebliche Zeit, um ein Deepfake zu erstellen. Der Ersteller des Fakes muss viel Zeit damit verbringen, die Parameter des Modells manuell anzupassen, da suboptimale Parameter zu erkennbaren Unvollkommenheiten und Bildfehlern führen, die die wahre Natur des Fakes verraten.

Obwohl oft angenommen wird, dass die meisten Deepfakes mit einer Art von neuronalen Netzwerk namens generatives adversarisches Netzwerk (GAN) erstellt werden, verwenden viele (vielleicht die meisten) heutigen Deepfakes keine GANs. Während GANs eine wichtige Rolle bei der Erstellung der ersten Deepfakes spielten, werden die meisten Deepfake-Videos durch alternative Methoden erstellt, laut Siwei Lyu von der SUNY Buffalo.

Es benötigt eine unverhältnismäßig große Menge an Trainingsdaten, um ein GAN zu trainieren, und GANs benötigen oft viel länger, um ein Bild zu rendern, im Vergleich zu anderen Bildgenerierungstechniken. GANs sind auch besser für die Generierung statischer Bilder als für Videos geeignet, da GANs Schwierigkeiten haben, Konsistenzen von Frame zu Frame aufrechtzuerhalten. Es ist viel häufiger, einen Encoder und mehrere Decoder zu verwenden, um Deepfakes zu erstellen.

Wofür werden Deepfakes verwendet?

Viele der online zu findenden Deepfakes sind pornografischer Natur. Laut einer Studie von Deeptrace, einem AI-Unternehmen, waren von einer Stichprobe von etwa 15.000 Deepfake-Videos, die im September 2019 aufgenommen wurden, etwa 95 % pornografischer Natur. Eine besorgniserregende Implikation dieser Tatsache ist, dass, wenn die Technologie einfacher zu verwenden ist, Fälle von gefälschtem Rache-Pornos ansteigen könnten.

Jedoch sind nicht alle Deepfakes pornografischer Natur. Es gibt legitime Anwendungsbereiche für Deepfake-Technologie. Audio-Deepfake-Technologie könnte Menschen helfen, ihre reguläre Stimme nach einer Erkrankung oder Verletzung zu übertragen. Deepfakes können auch verwendet werden, um die Gesichter von Menschen in sensiblen, potenziell gefährlichen Situationen zu verbergen, während ihre Lippen und Ausdrücke noch lesbar bleiben. Deepfake-Technologie kann möglicherweise verwendet werden, um die Synchronisation in fremdsprachigen Filmen zu verbessern, alte und beschädigte Medien zu reparieren und sogar neue Kunststile zu schaffen.

Non-Video-Deepfakes

Während die meisten Menschen, wenn sie den Begriff “Deepfake” hören, an gefälschte Videos denken, sind gefälschte Videos bei Weitem nicht die einzige Art von gefälschter Medien, die mit Deepfake-Technologie erstellt werden. Deepfake-Technologie wird verwendet, um Foto- und Audio-Fälschungen zu erstellen. Wie bereits erwähnt, werden GANs häufig verwendet, um gefälschte Bilder zu generieren. Es wird angenommen, dass es viele Fälle von gefälschten LinkedIn- und Facebook-Profilen gibt, die Profilbilder mit Deepfake-Algorithmen generiert haben.

Es ist auch möglich, Audio-Deepfakes zu erstellen. Tiefe neuronale Netze werden trainiert, um Stimmenklone/Stimmenhäute von verschiedenen Personen, einschließlich Celebrities und Politikern, zu produzieren. Ein berühmtes Beispiel für ein Audio-Deepfake ist, als das AI-Unternehmen Dessa eine AI-Modell verwendete, unterstützt von nicht-AI-Algorithmen, um die Stimme des Podcast-Moderators Joe Rogan nachzubilden.

Wie kann man Deepfakes erkennen?

Da Deepfakes immer sophistizierter werden, wird es schwieriger, sie von echten Medien zu unterscheiden. Derzeit gibt es einige Anzeichen, auf die Menschen achten können, um zu bestimmen, ob ein Video ein potenzielles Deepfake ist, wie schlechte Lippen-Synchronisation, unnatürliche Bewegungen, Flackern um den Rand des Gesichts und Verzerrung von feinen Details wie Haaren, Zähnen oder Reflexionen. Andere potenzielle Anzeichen für ein Deepfake sind niedrigere Qualitätsteile desselben Videos und unregelmäßiges Blinken der Augen.

Obwohl diese Anzeichen möglicherweise helfen, ein Deepfake zu erkennen, könnte die einzige Option für eine zuverlässige Deepfake-Erkennung andere Arten von künstlicher Intelligenz sein, die darauf trainiert sind, Fälschungen von echten Medien zu unterscheiden.

Künstliche Intelligenz-Unternehmen, einschließlich vieler großer Tech-Unternehmen, forschen an Methoden zur Erkennung von Deepfakes. Im letzten Dezember wurde eine Deepfake-Erkennungsherausforderung gestartet, unterstützt von drei Tech-Riesen: Amazon, Facebook und Microsoft. Forschungsteams aus der ganzen Welt arbeiteten an Methoden zur Erkennung von Deepfakes, um die besten Erkennungsmethoden zu entwickeln. Andere Forschungsgruppen, wie eine Gruppe von kombinierten Forschern von Google und Jigsaw, arbeiten an einer Art “Gesichtsforensik”, die Videos erkennen kann, die verändert wurden, machen ihre Datensätze Open-Source und ermutigen andere, Deepfake-Erkennungsmethoden zu entwickeln. Das erwähnte Dessa hat an der Verfeinerung von Deepfake-Erkennungstechniken gearbeitet, um sicherzustellen, dass die Erkennungsmodelle auf Deepfake-Videos funktionieren, die im Internet gefunden werden, und nicht nur auf vorherigen Trainings- und Testdatensätzen, wie dem Open-Source-Datensatz, den Google bereitgestellt hat.

Es gibt auch andere Strategien, die untersucht werden, um mit der Verbreitung von Deepfakes umzugehen. Zum Beispiel kann die Überprüfung von Videos auf Übereinstimmung mit anderen Informationsquellen eine Strategie sein. Suchen können nach Videos von Ereignissen durchgeführt werden, die aus anderen Perspektiven aufgenommen wurden, oder Hintergrunddetails des Videos (wie Wettermuster und Orte) können auf Unstimmigkeiten überprüft werden. Darüber hinaus könnte ein Blockchain-Online-Ledgersystem Videos registrieren, wenn sie ursprünglich erstellt werden, und ihre ursprünglichen Audio- und Bilder aufbewahren, so dass abgeleitete Videos immer auf Manipulationen überprüft werden können.

Letztendlich ist es wichtig, dass zuverlässige Methoden zur Erkennung von Deepfakes erstellt werden und dass diese Erkennungsmethoden mit den neuesten Fortschritten in Deepfake-Technologie Schritt halten. Während es schwierig ist, genau zu wissen, welche Auswirkungen Deepfakes haben werden, könnte Fehlinformationen möglicherweise um sich greifen und das Vertrauen der Menschen in die Gesellschaft und Institutionen untergraben, wenn es keine zuverlässigen Methoden zur Erkennung von Deepfakes (und anderen Arten von Fälschungen) gibt.

Auswirkungen von Deepfakes

Was sind die Gefahren, wenn Deepfakes ungehindert verbreitet werden?

Eines der größten Probleme, die Deepfakes derzeit verursachen, ist nicht einvernehmliche Pornografie, die durch die Kombination von Menschen mit pornografischen Videos und Bildern hergestellt wird. AI-Ethiker befürchten, dass Deepfakes häufiger für die Erstellung von gefälschtem Rache-Porno verwendet werden. Darüber hinaus könnten Deepfakes verwendet werden, um jeden zu belästigen und dessen Ruf zu schädigen, da sie verwendet werden könnten, um Menschen in kontroversen und kompromittierenden Situationen zu platzieren.

Unternehmen und Cybersicherheitsspezialisten haben Bedenken hinsichtlich der Verwendung von Deepfakes zur Erleichterung von Betrügereien, Betrug und Erpressung geäußert. Angeblich wurde Deepfake-Audio verwendet, um Mitarbeiter eines Unternehmens dazu zu bringen, Geld an Betrüger zu überweisen.

Es ist möglich, dass Deepfakes auch über die oben genannten Auswirkungen hinaus schädliche Auswirkungen haben. Deepfakes könnten möglicherweise das Vertrauen der Menschen in Medien allgemein untergraben und es schwierig machen, zwischen echten und gefälschten Nachrichten zu unterscheiden. Wenn viele Videos im Internet gefälscht sind, wird es einfacher für Regierungen, Unternehmen und andere Entitäten, Zweifel an legitimen Kontroversen und unethischen Praktiken zu säen.

Wenn es um Regierungen geht, könnten Deepfakes sogar eine Bedrohung für den Betrieb der Demokratie darstellen. Die Demokratie erfordert, dass Bürger in der Lage sind, auf der Grundlage zuverlässiger Informationen fundierte Entscheidungen über Politiker zu treffen. Fehlinformationen untergraben demokratische Prozesse. Zum Beispiel erschien der Präsident von Gabun, Ali Bongo, in einem Video, in dem er die gabunische Bevölkerung zu beruhigen versuchte. Der Präsident wurde für eine lange Zeit als krank angesehen, und sein plötzliches Auftauchen in einem wahrscheinlich gefälschten Video löste einen Putschversuch aus. Präsident Donald Trump behauptete, dass eine Audio-Aufnahme von ihm, in der er sich über das Greifen von Frauen brüstet, falsch sei, obwohl er es auch als “Umkleidekabine-Gespräch” bezeichnete. Prinz Andrew behauptete, dass ein Bild, das von Emily Maitilis’ Anwalt bereitgestellt wurde, gefälscht sei, obwohl der Anwalt auf dessen Echtheit bestand.

Letztendlich ist es, während es legitime Anwendungsbereiche für Deepfake-Technologie gibt, sehr wichtig, dass Methoden zur Bestimmung der Echtheit von Medien erstellt und aufrechterhalten werden.

Blogger und Programmierer mit Spezialisierungen in Machine Learning und Deep Learning Themen. Daniel hofft, anderen zu helfen, die Macht von KI für das soziale Wohl zu nutzen.