Connect with us

Reddit verbietet ‘SFW’-Deepfake-Community

Künstliche Intelligenz

Reddit verbietet ‘SFW’-Deepfake-Community

mm

Über das Wochenende, offensichtlich irgendwann um Sonntag, hat Reddit die nominell ‘SFW’ (Safe For Work) Deepfakes-Community mit dem Titel r/deepfakesfw verboten. Das Subreddit war eine der ersten Reaktionen auf die Löschung der originalen, AI-Porn-vollen r/deepfakes-Sub in 2018 durch den sozialen Medien-Riesen.

Die (relativ) standardmäßige Legende, die jetzt jeden begrüßt, der das Sub besucht (Archiv-Snapshot am Montag, 13. Juni), erklärt, dass es ‘wegen eines Verstoßes gegen Reddits Regeln gegen ungewollte Pornografie verboten wurde’.

Die neue Startseite für r/deepfakesfw.

Die neue Startseite für r/deepfakesfw.

Das r/deepfakesfw-Sub wurde nicht häufig von beliebten Konservierungsplattformen archiviert, aber der aktuellste WayBack Machine-Snapshot, der vor etwa zehn Tagen (am 3. Juni 2022) erstellt wurde, zeigt, dass das Sub zu diesem Zeitpunkt 3.095 Leser hatte.

Das ist tatsächlich eine höhere Anzahl an Abonnenten als r/DeepFakesSFW (beachten Sie das zusätzliche ‘s’), das derzeit 2.827 Leser hat (Archiv-Snapshot am Montag, 13. Juni 2022). Die beliebteste ‘legitime’ SFW-Deepfakes-Community scheint derzeit r/SFWdeepfakes zu sein, die zum Zeitpunkt des Schreibens 16.636 Leser hat (Snapshot am Montag, 13. Juni 2022).

Fragen Sie nicht

Was das r/deepfakesfw offensichtlich zum Verhängnis wurde, war nicht das Posten, sondern das Anfordern von Deepfake-Pornografie. Reddits Regeln für sexuell explizite Medien besagen:

‘[Bilder] oder Videos einer anderen Person, die für den spezifischen Zweck des Fälschens von expliziten Inhalten oder des Anforderns von “lookalike”-Pornografie (z. B. “Deepfakes” oder “Bubble-Porn”) veröffentlicht werden, sind auch gegen die Regel verstoßen.’

Basierend auf den letzten verfügbaren RSS-Feeds aus dem jetzt verbotenen SFW-Subreddit wurde das Verbot offensichtlich durch das Anfordern rather als das Posten von NSFW-Deepfake-Inhalten ausgelöst:

Einige der finalen, offensichtlich NSFW-Beiträge aus dem jetzt toten r/deepfakesfw-Subreddit.

Einige der finalen, offensichtlich NSFW-Beiträge aus dem jetzt toten r/deepfakesfw-Subreddit. Quelle: Inoreader.

Obwohl die Beiträge, auf die diese RSS-Feeds verweisen, nicht mehr verfügbar sind, zeigt das Anklicken der Profillinks der Anforderer (in der obigen Abbildung unscharf dargestellt), dass viele der Poster verbotene Deepfake-Inhalte in mehr als einem Forum anfordern und entweder um einige der extremsten Inhalte dieser Art bitten oder sie anbieten, einschließlich Inzest-Pornografie und verschiedenen Schattierungen von ungewollten pornografischen Themen.

Dies deutet darauf hin, dass die verbleibenden ‘SFW’-Reddit-Subs überleben, indem sie auf die Schnelligkeit, Umsicht und schnellen Reaktionszeiten ihrer Moderatoren setzen, da Reddit offensichtlich nicht dazu bereit ist, eine Art ‘Kleinanzeigen’-Forum für Menschen zu werden, die sich über Direktnachrichten (in Fällen, in denen dies nicht explizit in einem Beitrag angefordert werden kann) mit illegitimen Deepfakes verbinden.

Wenn dem so ist, dann lebt das noch nicht verbotene r/DeepFakesSFW möglicherweise auf Pump; seine beiden aktuellen Top-Beiträge, wenn man die URL des Subreddits mit dem ‘alten’ Reddit-Theme aufruft, sind speziell als ‘NSFW’ (ein Tag, der in dieser Community nicht verfügbar sein sollte) markiert.

Abhängig von den Umständen erscheinen derzeit einige regelbrechende Beiträge im r/DeepFakesSFW-Sub.

Abhängig von den Umständen erscheinen derzeit einige regelbrechende Beiträge im r/DeepFakesSFW-Sub. Quelle: https://www.reddit.com/r/DeepFakesSFW/

Sie können diese beiden NSFW-Beiträge, die das heutige r/DeepFakesSFW-Forum anführen, hier archiviert sehen (Snapshot am Montag, 13. Juni 2022).

Es gibt tatsächlich keine NSFW-‘Flair’-Option, wenn man einen neuen Beitrag im r/DeepFakesSFW erstellt, das seit vier Jahren in Betrieb ist, laut der Informationen in der Seitenleiste:

Verfügbare Tags beim Posten im r/DeepFakesSFW.

Verfügbare ‘Flairs’ beim Posten im r/DeepFakesSFW.

Daher scheinen die NSFW-Tags im r/DeepFakesSFW entweder von den Moderatoren des Forums oder von höheren Administratoren angewendet worden zu sein – oder sogar von Algorithmen, möglicherweise ohne jegliche Intervention oder verfügbare Opposition durch lokale Moderatoren. Ich habe mich an den einzigen aufgeführten Moderator von r/DeepFakesSFW gewandt und werde alle verfügbaren Updates posten.

(Bearbeitet, Dienstag, 14. Juni 2022 – Ein Moderator von r/DeepFakesSFW hat geantwortet und erklärt: ‘Es scheint, dass dies passiert, wenn das Konto des Benutzers als NSFW markiert ist.’ Es ist anzunehmen, dass die einzige Möglichkeit, die Wahrscheinlichkeit solcher Anfragen in SFW-Deepfake-Subreddits zu verringern, darin bestehen würde, Benutzer zu verbannen, die diese Klassifizierung ‘verdient’ haben.)

Der größte Teil des Inhalts in diesem Subreddit und im größeren r/SFWdeepfakes beschäftigt sich mit der Verwendung von Deepfake-Technologie, um ‘Schauspieler aus beliebten oder klassischen Filmen neu zu besetzen’ oder otherwise harmloses AI-getriebenes Vergnügen mit populären Medien und Deepfake-Technologie zu haben, und qualifizieren sich tatsächlich als ‘SFW’.

Obwohl viele solcher Beiträge gefährlich nahe an urheberrechtsbedingte Verbote kommen, deutet das Überleben von ‘IP-angegliederten’ nicht-pornografischen Deepfake-Videos von großen YouTube-Deepfakers wie Ctrl-Shift-Face auf eine breite Toleranz von Studios und Rechteinhabern gegenüber solchen Aktivitäten hin, zumindest vorerst.

Die ‘unschuldige’ Erscheinung des Deepfake-Prozesses und -Ökosystems

Vor zwei Wochen wurde bekannt (und es gab viel Diskussion), dass Google plötzlich Deepfake-Erstellungssoftware aus seinen beliebten Colab-Cloud-Verarbeitungsumgebungen verboten hat. Selbst bis heute ist Colab offensichtlich nur durch den Versuch ausgelöst, DeepFaceLab (DFL), die beliebteste Deepfake-Software der Welt (und die, die am engsten mit AI-Pornografie in Verbindung gebracht wird), und nicht weniger frequentierte Implementierungen wie FaceSwap, die besser angesehen ist, obwohl sie genau die gleichen Aufgaben wie DFL ausführt.

In gewissem Maße mag dieser Ansatz die einzige Möglichkeit gewesen sein, wie Colab irgendeine Einschränkung der Herstellung von Deepfake-Pornografie umsetzen konnte, da der tatsächliche Deepfake-Trainingsprozess nichts als Open-Source-Software und stark beschnittene Gesichtsbilder (in der Regel nur 512x512px, oft weniger) verwendet, mit fast keiner Möglichkeit für Bilderkennungsalgorithmen, tatsächliche pornografische Inhalte abzufangen.

Sobald das Deepfake-Modell trainiert ist, benötigt der Deepfaker die enorme Rechenleistung von Colab oder einem teuren lokalen GPU nicht mehr. Die meisten tatsächlichen Umsetzungen (d. h. der Prozess des Einsetzens eines Gesichts in ein Video, pornografisch oder nicht), können lokal auf Low-Power-Laptop-GPUs oder sogar auf einem CPU (mit einer etwas längeren Verarbeitungszeit) durchgeführt werden. Sobald etwas Pornografisches im Deepfake-Prozess passiert, ist Colab längst aus dem Bild heraus.

Daher stellen die konstituierenden Elemente, die zwischen den Erstellern von Deepfake-Pornografie ausgetauscht werden, selten mehr als eine potenzielle geringe Urheberrechtsverletzung in Form von ‘Face-Sets’ dar, die Deepfake-Ersteller aus YouTube-Videos, Blu-rays, Fernseh-Interviews, sozialen Medien und verschiedenen anderen Quellen extrahiert haben.

Ist eine ‘verbrannte Erde’-Politik für Deepfake-Communities im Kommen?

Die Frage, die die Bewohner von Deepfake-Discord-Communities wie DeepFaceLab (einschließlich DeepFaceLive), FaceSwap, Machine Video Editor (MVE, eine GUI-basierte Umgebung für DFL, mit vielen zusätzlichen Funktionen) und neue audio-basierte Deepfake-Discord-Server wie Audio Deepfakes umtreibt, ist Werden die aktuellen Portal- und Plattformbesitzer bald einfach Deepfake-Communities aus Prinzip verbannen, anstatt die Kosten für ständige Moderation gegen eine Flut von NSFW-Anhängern und Erstellern zu tragen?

Bryan Lyon, einer der Entwickler von FaceSwap und Besitzer des zugehörigen Discord-Servers, kommentierte:

‘Wir sind es gelungen, auf Discord zu bleiben, trotz mehrerer Säuberungen, indem wir absolut sauber geblieben sind. Wir haben keine versteckten Kanäle oder einen geheimen zweiten Server mit unerlaubten Inhalten. Es gab eine Säuberung des beliebten DeepFaceLab-Servers vor ein paar Jahren. Jeder auf ihm wurde verbannt. Sie hatten Einladungs-Rollen mit Zugriff auf Kanäle mit nicht einvernehmlicher Pornografie.’

Angesichts der Tatsache, dass Google, einer der größten technologischen Hosting-Ressourcen der Welt, Deepfake-Training auf seinen Servern und GPUs verboten hat, ist es sogar möglich, dass der Microsoft-eigene GitHub entscheiden könnte, dass die Unterstützung dieser Technologien* nicht mehr der moralischen Zweideutigkeit oder Investition in die Überwachung wert ist.

Zu diesem Zeitpunkt ist der Prozess der Legitimierung von Deepfake-Technologien, um ihre Verwendung von selbstgemachter Pornografie hin zu Film- und Fernsehproduktion und nicht-verletzenden/strafrechtlichen Anwendungen zu lenken, noch zu neu, um klare Richtlinien für Plattformen und Community-Host-Dienste zu liefern.

 

* Archiv von https://github.com/search?q=deepfake vom Montag, 13. Juni 2022.
† In privaten DMs auf Discord.

Erstveröffentlicht am 13. Juni 2022. Bearbeitet am 3:08 PM UTC für Bildkorrekturen.
Geändert am Dienstag, 14. Juni 2022, 6:24 Uhr UTC, um die Antwort des Reddit-Modulators hinzuzufügen, bezüglich des NSFW-Status einiger Poster. Ebenso Bildkorrektur auf RSS-Feeds-Illustration.

Autor über maschinelles Lernen, Domänen-Spezialist in der menschlichen Bildsynthese. Ehemaliger Leiter der Forschungsinhalte bei Metaphysic.ai.