Connect with us

Anderson’un Açısı

Otomatik Telif Hakkı Koruması AI-Üretimi Resimlerde

mm
ChatGPT-4o: ' 1792x1024px image of a Front view of a British high court tribunal composed of three robots in judicial wigs. They are all examining an 8x10 photograph, but we cannot see what the photograph is, because its back is towards us. HQ, cinematic still'

Geçen hafta bahsettiğimiz gibi, popüler generatif AI sistemlerinin arkasındaki temel foundation modelleri, yetersiz veya hatalı kürasyon nedeniyle ve eğitim verisi中的 aynı görüntünün birden fazla versiyonu nedeniyle, telif ihlali içerik üretebilir, bu da aşırı uydurma ve tanınabilir yeniden üretimleri artırma olasılığına yol açar.

Generatif AI alanını domine etme çabalarına rağmen ve IP ihlallerini önleme baskısı artmasına rağmen, MidJourney ve OpenAI’nin DALL-E gibi büyük platformlar, kasıtsız olarak telifli içeriği yeniden üretme konusunda zorluklarla karşılaşıyorlar:

Generatif sistemlerin telifli verileri yeniden üretme kapasitesi düzenli olarak medyada ortaya çıkıyor.

Generatif sistemlerin telifli verileri yeniden üretme kapasitesi düzenli olarak medyada ortaya çıkıyor.

Yeni modeller ortaya çıktıkça ve Çin modelleri baskın hale geldikçe, temel modellerdeki telifli materyalin bastırılması zor bir prospektir; aslında, pazar lideri open.ai, geçen yıl, telifli materyal olmadan etkili ve yararlı modeller oluşturmanın ‘imkansız’ olduğunu açıkladı.

Önceki Sanat

Telifli materyalin kazara üretilmesi konusunda, araştırma sahnesi, kaynak verilerin NSFW ve diğer yasaklanmış alanlara dahil edilmesi konusundaki benzer bir zorlukla karşı karşıyadır: bir yandan bilgi (yani, doğru insan anatomisi, tarihi olarak her zaman çiplak çalışmalar üzerine dayalı olarak) yararlanmak ister, ancak bunu suistimal etme yeteneğinden yoksun bırakmak ister.

Benzer şekilde, model oluşturucular, büyük ölçekli setlere (örneğin, LAION) giren devasa telifli materyalin avantajından yararlanmak ister, ancak modelin gerçekten IP ihlali geliştirmesini istemiyor.

Etik ve yasal riskleri göz ardı ederek, telifli materyal kullanımını gizleme girişimlerini bir kenara bırakırsak, ikinci durumda filtreleme çok daha zorlu hale geliyor. NSFW içeriği genellikle, doğrudan gerçek dünya materyallerine karşılaştırmalar gerektirmeden, giderek daha etkili filtreleme olanakları sunan açık özellikler içerir. Buna karşılık, milyonlarca telifli eseri tanımlayan latent gömmeler, kolayca tanımlanabilir işaretlere indirgenmez, bu da otomatik tespiti çok daha karmaşık hale getirir.

KopyaHakimi

İnsan yargısı, hem veri setlerinin kürasyonunda hem de API tabanlı portallere (örneğin, MidJourney ve ChatGPT’nin görüntü oluşturma yeteneği) IP kilitli materyalin teslim edilmesini önlemek için tasarlanan post-işlem filtreleri ve “güvenlik” tabanlı sistemlerin oluşturulmasında, nadir ve pahalı bir malzemedir.

Bu nedenle, İsviçre, Sony AI ve Çin arasındaki yeni bir akademik işbirliği, KopyaHakimi – ChatGPT tabanlı “hakim” gruplarını sırayla düzenleyen ve olası telif ihlali belirtileri için girdileri inceleyen otomatik bir yöntem sunuyor.

KopyaHakimi, çeşitli IP ihlali AI üretimleri değerlendirmektedir. Kaynak: https://arxiv.org/pdf/2502.15278

KopyaHakimi, çeşitli IP ihlali AI üretimleri değerlendirmektedir. Kaynak: https://arxiv.org/pdf/2502.15278

KopyaHakimi, esasen büyük görme-dil modellerini (LVLM) kullanarak, telifli görüntüler ve metin-Resim difüzyon modelleri tarafından üretilen görüntüler arasındaki önemli benzerliği belirlemek için bir çerçeve sunar.

KopyaHakimi yaklaşımı, pekiştirme öğrenimi kullanarak telif ihlali tetikleyen promtleri optimize eder ve ardından bu promtlerden elde edilen bilgileri kullanarak, telif ihlali oluşturma olasılığı daha düşük olan yeni promtler oluşturur.

KopyaHakimi yaklaşımı, pekiştirme öğrenimi kullanarak telif ihlali tetikleyen promtleri optimize eder ve ardından bu promtlerden elde edilen bilgileri kullanarak, telif ihlali oluşturma olasılığı daha düşük olan yeni promtler oluşturur.

Çoğu çevrimiçi AI tabanlı görüntü oluşturucu, kullanıcıların promtlerini NSFW, telifli materyal, gerçek kişilerin yeniden üretimi ve çeşitli diğer yasaklanmış alanlar için filtrelerken, KopyaHakimi, kullanıcıların girişini doğrudan engelleme yerine, “sanitize” promtleri oluşturmak için “ihlal” promtlerini kullanır.

Bu, yeni bir yaklaşım olmasa da, API tabanlı generatif sistemleri, kullanıcı girişini reddetmekten kurtarmaya yönelik bir adım atmaktadır (en azından, bu, kullanıcıların, deneyerek, yasaklanmış üretime “arka kapı” erişimini geliştirmesine olanak tanır).

Son zamanlarda kapatılan bir açıklık, kullanıcıların Kling generatif AI platformunda, yalnızca görüntü-işlem akışında bir haç veya çarmıh ekleyerek, müstehcen materyal oluşturmasına olanak tanıyordu.

Kling geliştiricileri tarafından 2024’ün sonlarında yamalanmış bir açıklıkta, kullanıcılar, görüntüyü videoya dönüştürme akışında bir haç veya çarmıh ekleyerek, yasaklanmış NSFW çıktısını üretebilirdi. Bu hackin mantığına ilişkin hiçbir açıklama yapılmamasına rağmen, bunun, Hristiyan (erkek) çıplaklığını bir çarmıhın betimlemelerinde “kabul edilebilir” şekilde izin vermek için tasarlandığı ve bir “haç” görüntüsünün etkili bir şekilde daha geniş NSFW çıktısını “kilidini açtığı” hayal edilebilir, ancak bunu asla bilemeyebiliriz! Kaynak: Discord

Bu gibi örnekler, çevrimiçi generatif sistemlerde promt sanitizasyonunun gerekliliğini vurgulamaktadır, özellikle de makine unlearning (temel modelin kendisi yasaklanmış kavramları kaldırmak için değiştirilir) son modelin kullanılabilirliği üzerinde hoş olmayan etkileri olabilir.

Daha az drastik çözümler arayan KopyaHakimi sistemi, insan temelindeki yasal yargıları taklit ederek, AI kullanarak görüntüleri bileşenlere (bestecilik ve renk gibi) ayırmak, telif hakkı ile ilgili olmayan kısımları filtrelemek ve geriye kalanı karşılaştırmak için bir çerçeve sunar.

Deneysel sonuçlar, yazarların iddiasına göre, KopyaHakimi’nin bu alanda öncü yaklaşımlara eşdeğer olduğunu gösteriyor ve sistemlerin daha iyi genelleme ve yorumlanabilirlik sergilediğini belirtiyor.

Yeni makale, KopyaHakimi: Metin-Resim Difüzyon Modellerinde Otomatik Telif İhlali Tanıma ve Azaltma başlığını taşıyor ve EPFL, Sony AI ve Çin’in Westlake Üniversitesi’nden beş araştırmacı tarafından sunuluyor.

Yöntem

KopyaHakimi, GPT’yi kullanarak otomatik “hakim” gruplarını oluştursa da, yazarlar, sistemin OpenAI ürününe optimize edilmediğini ve alternatif Büyük Görme-Dil Modellerinin (LVLM) kullanılabileceğini vurguluyorlar.

İlk aşamada, yazarların soyutlama-filtreleme-karşılaştırma çerçevesi, kaynak görüntüleri bileşenlerine ayırmak için gerekli, aşağıdaki şemasolduğu gibi:

KopyaHakimi iş akışının ilk aşaması için kavramsal şema.

KopyaHakimi iş akışının ilk aşaması için kavramsal şema.

Sol alt köşede, bir filtreleme aracının görüntüleri bölmeye çalıştığını görüyoruz, bu da telifli bir eserle birlikte ortaya çıkabilecek ancak tek başına ihlal olarak nitelendirilmeyecek özelliklerin tanımlanmasına yönelik bir girişimdir.

Birden fazla LVLM daha sonra, filtrelenen unsurları değerlendirmek için kullanılır – bu, 2023 CSAIL çalışması gibi makalelerde kanıtlanmış bir yaklaşımdır. Dil Modellerinde Gerçeklik ve Mantık Gücünü Çoklu Ajan Tartışmasıyla Geliştirme ve ChatEval dahil olmak üzere çeşitli diğer tanınmış çalışmalar.

Yazarlar şöyle diyor:

‘[Biz] tamamen bağlantılı senkron iletişim tartışması yaklaşımını benimsiyoruz, burada her LVLM, diğer LVLM’lerin yanıtlarını aldığında, bir sonraki yargıyı vermeden önce [yanıtları] alır. Bu, analiz güvenilirliğini ve derinliğini güçlendiren bir dinamik geri bildirim döngüsü oluşturur, modeller yeni bilgiler ışığında değerlendirmelerini uyarlar.

‘Her LVLM, diğer LVLM’lerin yanıtlarına göre puanını ayarlayabilir veya değişiklik yapmaz.’

İnsanların puanladığı görüntü çiftlerinin birkaç örneği de işleme dahil ediliyor.

Bir sonraki adımda, “hakim”lerin döngüsündeki “mahkeme”ler, kabul edilebilirlik aralığında bir konsensüs puanına ulaştığında, sonuçlar bir “meta hakim” LVLM’ye iletilir, bu da sonuçları nihai bir puana sentezler.

Azaltma

Sonra yazarlar, daha önce açıklanan promt azaltma işlemini ele aldı.

KopyaHakimi'nin promtleri ve latent gürültüyü azaltma şeması. Sistem, pekiştirme öğrenimi kullanarak promtleri değiştirir ve latent değişkenleri uyarlar, böylece ihlal riskini azaltır.

KopyaHakimi’nin promtleri ve latent gürültüyü azaltma şeması. Sistem, pekiştirme öğrenimi kullanarak promtleri değiştirir ve latent değişkenleri uyarlar, böylece ihlal riskini azaltır.

Promt azaltma için kullanılan iki yöntem, LVLM tabanlı promt kontrolüydü, burada etkili olmayan ihlal promtleri GPT kümeleri boyunca yinelemeli olarak geliştirildi – bu, model mimarisine iç erişim gerektirmeyen tamamen “kara kutu” bir yaklaşımdır; ve bir pekiştirme öğrenimi tabanlı (RL tabanlı) yaklaşım, burada ödül, telif ihlali olan çıktıları cezalandırmak için tasarlandı.

Veri ve Testler

KopyaHakimi’yi test etmek için, D-Rep dahil çeşitli veri kümeleri kullanıldı, bu, insan tarafından puanlanan gerçek ve sahte görüntü çiftlerini içerir.

Hugging Face'de D-Rep veri kümesini keşfetme. Bu koleksiyon, gerçek ve oluşturulan görüntüleri birleştirir. Kaynak: https://huggingface.co/datasets/WenhaoWang/D-Rep/viewer/default/

Hugging Face’de D-Rep veri kümesini keşfetme. Bu koleksiyon, gerçek ve oluşturulan görüntüleri birleştirir. Kaynak: https://huggingface.co/datasets/WenhaoWang/D-Rep/viewer/default/

KopyaHakimi şeması, D-Rep’de 4 veya daha yüksek puan alan görüntüleri ihlal örnekleri olarak dikkate aldı, geri kalanı ise IH ihlali olmayan örnekler olarak tutuldu. Veri kümesinin resmi 4000 görüntüsü test görüntüleri olarak kullanıldı. Ayrıca, araştırmacılar Vikipedi’den 10 ünlü çizgi karakter için görüntüleri seçti ve küratedi.

Potansiyel olarak ihlal edici görüntüler oluşturmak için kullanılan üç difüzyon tabanlı mimari, Stable Diffusion V2; Kandinsky2-2; ve Stable Diffusion XL idi. Yazarlar her modelden bir ihlal ve bir de ihlalsiz görüntü seçti, 60 pozitif ve 60 negatif örnek elde etti.

Karşılaştırma için seçilen temel yöntemler şunlardı: L2 norm; Öğrenilen Algısal Görüntü Yama Benzerliği (LPIPS); SSCD; RLCP; ve PDF-Emb. Metrikler olarak, Doğruluk ve F1 puanı ihlal için kriterler olarak kullanıldı.

GPT-4o, KopyaHakimi’nin dahili tartışma ekiplerini oluşturmak için kullanıldı, her bir sunulan görüntü için en fazla beş iterasyon için üç ajan kullanıldı. D-Rep’den her derecelendirmeye ait üç rastgele görüntü, ajanlar için insan öncelleri olarak kullanıldı.

KopyaHakimi'nin ilk turdaki ihlal sonuçları.

KopyaHakimi’nin ilk turdaki ihlal sonuçları.

Bu sonuçlardan yazarlar şunları söylüyor:

‘[Bu] geleneksel görüntü kopya tespit yöntemlerinin telif ihlali tanıma görevinde sınırlılıklar sergilediğini gösteriyor. Yaklaşımımız, çoğu yöntemi önemli ölçüde aşmaktadır. Devlet-sanayî işbirliği yöntemi için, D-Rep’de 36.000 örnekten oluşan D-Rep’de eğitilen PDF-Emb, bizim performansımız D-Rep’de biraz daha düşük.

‘Ancak, Cartoon IP ve Sanat Eseri veri kümesindeki zayıf performansı, genellemeye yönelik yetenek eksikliğini vurgulamaktadır, oysa bizim yöntemimiz, veri kümeleri boyunca eşit derecede mükemmel sonuçlar sergiliyor.’

Yazarlar ayrıca, KopyaHakimi’nin geçerli ve ihlal örnekleri arasında “göreceli” olarak daha belirgin bir sınır sunduğunu belirtiyorlar:

Yeni makalenin ek malzemelerinden test turundan daha fazla örnek.

Yeni makalenin ek malzemelerinden test turundan daha fazla örnek.

Araştırmacılar, çalışmalarını, 2024’ten Sony AI ile bir işbirliği ile karşılaştırdılar, bu çalışma Difüzyon Modellerinde Hafıza ve Açıklama ile Azaltma Tespiti başlığını taşıyordu.

Yazarlar, kendi promt azaltma yöntemlerinin, 2024 çalışmasına kıyasla, telifli verilerin üretilmesini daha az olası bir şekilde üretebildiğini buldu.

KopyaHakimi ile 2024 çalışması arasındaki hafıza azaltma sonuçları.

KopyaHakimi ile 2024 çalışması arasındaki hafıza azaltma sonuçları.

Yazarlar burada şunları söylüyor:

‘[Bizim] yaklaşımımız, ihlali azaltırken, benzer bir eşleşme doğruluğunu korurken, görüntü oluşturma kalitesini önemli ölçüde düşürmeden, ihlal oluşturma olasılığını azaltabilir. Aşağıdaki [görüntüde] görüldüğü gibi, [önceki] yöntemin eksikliklerini, örneğin hafızayı azaltmayı başaramama veya büyük ölçüde sapmış görüntüler oluşturma gibi, etkili bir şekilde bertaraf ediyoruz. Ancak, masih kullanıcı gereksinimlerini koruyarak, ihlali azaltabiliriz.’

İhlal azaltma öncesi ve sonrası oluşturulan görüntülerin karşılaştırması.

İhlal azaltma öncesi ve sonrası oluşturulan görüntülerin karşılaştırması.

SONUÇ

Bu çalışmada, AI-üretimi resimlerde telif hakkı korumasına yönelik umut verici bir yaklaşım sunulmasına rağmen, telif ihlali tespiti için büyük görme-dil modellerine (LVLM) bağımlılık, AI tarafından verilen yargıların her zaman yasal standartlarla uyumlu olmayabileceği konusunda endişeler uyandırabilir.

Belki de en önemlisi, bu proje, telif hakkı uygulanmasının otomatikleştirilebileceğini varsayar, bu da gerçek dünya mahkeme kararlarının genellikle AI’nın yorumlamayı zorlayabileceği öznel ve bağlamsal faktörleri içerdiği bir konudur.

Gerçek dünyada, AI çıktısı etrafındaki yasal uzlaşmanın otomatikleştirilmesi, bu çalışmanın ele aldığı alandan çok daha öteye uzanan ve bu çalışmanın kapsamı dışındaki bir sorun olarak görünmektedir.

 

İlk olarak 24 Şubat 2025 Pazartesi günü yayımlandı

Makine öğrenimi üzerine yazar, insan görüntü sentezinde alan uzmanı. Metaphysic.ai'de eski araştırma içeriği başkanı.
Kişisel site: martinanderson.ai
İletişim: [email protected]