Connect with us

Künstliche Intelligenz

Extraktion von Trainingsdaten aus fein abgestimmten Stable-Diffusion-Modellen

mm
Examples of training images (below), extracted from a trained model (above). Source: https://arxiv.org/pdf/2410.03039

Neue Forschung aus den USA präsentiert eine Methode, um wesentliche Teile der Trainingsdaten aus fein abgestimmten Modellen zu extrahieren.

Dies könnte potenziell rechtliche Beweise in Fällen liefern, in denen der Stil eines Künstlers kopiert wurde oder in denen urheberrechtlich geschützte Bilder verwendet wurden, um generative Modelle von öffentlichen Figuren, IP-geschützten Charakteren oder anderen Inhalten zu trainieren.

Aus dem neuen Paper: Die ursprünglichen Trainingsbilder sind in der oberen Reihe zu sehen, und die extrahierten Bilder sind in der unteren Reihe dargestellt. Quelle: https://arxiv.org/pdf/2410.03039

Aus dem neuen Paper: Die ursprünglichen Trainingsbilder sind in der oberen Reihe zu sehen, und die extrahierten Bilder sind in der unteren Reihe dargestellt. Quelle: https://arxiv.org/pdf/2410.03039

Solche Modelle sind weit verbreitet und frei im Internet verfügbar, hauptsächlich durch die enormen Benutzer-Beiträge in civit.ai und, in geringerem Umfang, auf der Hugging Face-Repository-Plattform.

Das neue Modell, das von den Forschern entwickelt wurde, heißt FineXtract, und die Autoren behaupten, dass es staatliche Ergebnisse in dieser Aufgabe erzielt.

Autor über maschinelles Lernen, Domänen-Spezialist in der menschlichen Bildsynthese. Ehemaliger Leiter der Forschungsinhalte bei Metaphysic.ai.