Künstliche Intelligenz
Extraktion von Trainingsdaten aus fein abgestimmten Stable-Diffusion-Modellen

Neue Forschung aus den USA präsentiert eine Methode, um wesentliche Teile der Trainingsdaten aus fein abgestimmten Modellen zu extrahieren.
Dies könnte potenziell rechtliche Beweise in Fällen liefern, in denen der Stil eines Künstlers kopiert wurde oder in denen urheberrechtlich geschützte Bilder verwendet wurden, um generative Modelle von öffentlichen Figuren, IP-geschützten Charakteren oder anderen Inhalten zu trainieren.

Aus dem neuen Paper: Die ursprünglichen Trainingsbilder sind in der oberen Reihe zu sehen, und die extrahierten Bilder sind in der unteren Reihe dargestellt. Quelle: https://arxiv.org/pdf/2410.03039
Solche Modelle sind weit verbreitet und frei im Internet verfügbar, hauptsächlich durch die enormen Benutzer-Beiträge in civit.ai und, in geringerem Umfang, auf der Hugging Face-Repository-Plattform.
Das neue Modell, das von den Forschern entwickelt wurde, heißt FineXtract, und die Autoren behaupten, dass es staatliche Ergebnisse in dieser Aufgabe erzielt.












