Anderson’un Açısı
IP-Washing Yöntemleri ve AI

Eğer AI’de entelektüel mülkiyet kullanımına ilişkin yasal bir hesaplaşma olacaksa, böyle bir kullanımı bulanıklaştırmak için several yöntemler de vardır.
Opinion AI’de当前, hızla ilerleyen devrim, herhangi bir dönüşümsel teknolojik gelişimin eşlik ettiği en yasal olarak tehlikeli ortamda gerçekleşiyor 19. yüzyıldan bu yana.
3-4 yıl öncesine kadar, makine öğrenimi araştırma topluluğu, IP-korunan materyali yeni sistemler geliştirirken kullanma konusunda örtülü (sık sık açık) bir izin verdi; çünkü bu sistemler henüz başarılı değildi, yani olgun veya ticari olarak uygulanabilir değildi, sonuçlar her anlamda akademikti.
O dönemde, yeni bir nesil difüzyon tabanlı Büyük Dil Modellerinin (LLMler, örneğin ChatGPT ve Claude) ve Görsel-Dil Modellerinin (VLMler, örneğin Sora) aniden başarılı olması, bu soyut ve daha önce ‘zararsız’ araştırma alanlarının ticari olarak uygulanabilir hale geldiğini ve IP koruması konusunda ‘bedava geçiş’lerinin sona erdiğini gösterdi.
Artık, hak sahipleri, büyük ölçüde veya kısmen kendi telif hakkı veya başka şekilde korunan verilerine dayalı olarak eğitilen AI sistemlerinin meyvelerinde bir pay talep edecekler, bu da süregelen bir dizi yasal davaya neden olacak, bunlara bazı çaba harcamak必要 olacak.

Şurada sadece ABD’de açılan davalarla sınırlı, yeni davalar ABD’de ve ötesinde çılgın bir tempoda ortaya çıkıyor. Kaynak
‘Ücretsiz Yemek’ Zorunluluğu
AI altyapısına ilişkin şu anda gerçekleşen mali taahhüt, bazı sesler tarafından ‘telif hakkı tehlikesi’ AI’yi ekonomi toplumunda öyle bir şekilde yerleştirmek için bir çaba olarak önerildi ki, bu sadece ‘büyük olmak’ değil, aynı zamanda ‘dava yoluyla devrilmesi mümkün olmayan’ bir hale gelsin.
Bu genel görüşe doğru, ABD’nin şu anki başkanı, politikaya görüşünü koyuyor ki, ‘Her bir makale, kitap veya başka bir şey için ödeme yapmanız beklenemez, bunları okudunuz veya incelediniz.’.
Gerçekten de? Batı endüstri devrinde benzeri veya karşılaştırılabilir bir şey olmadı ve bu, geleneksel ABD dava ve tazminat kültürüne karşı şiddetle sürtüşen bir hareketi temsil ediyor; belki de en yakın benzer pozisyonlar, tıbbi patentlerin 20 yıl sonra zorunlu olarak sona ermesi (kendisi sık sık saldırı altında) ve beklenti sınırlaması kamu yerlerinde.
Ancak zamanlar değişiyor; şu anda ‘kamulaştırma’ karşıtı IP korumalarına karşı eğilimin durmayacağı veya daha sonra tersine çevrilmeyeceği konusunda hiçbir garanti olmadan, AI sistemlerinin geliştirilmesinde ve çok tartışılan eğitim verilerinin behandlinginde beberapa ikincil yaklaşım standart uygulama haline geliyor.
Vekil Veri Kümeleri
Bu yaklaşımlardan biri, (her zaman başarılı olmayan) savunma tarafından torrent-listing siteleri tarafından kullanılan bir approacha benzer – yani bu sitelerin aslında hiçbir tartışmalı materyali barındırmadıklarını iddia etmeleri.
Bunun yanı sıra, büyük resim veya video verilerinin depolanması ve sunulmasına ilişkin gereksinimi ortadan kaldıran bu tür koleksiyonlar, hızlı güncellemeye (örneğin, telif hakkı sahiplerinin taleplerine göre materyalin kaldırılması) ve sürümleme olanakları sağlar.
Tıpkı torrentlerin sadece IP-korunan materyalin bulunabileceği yerleri gösteren işaretler gibi, birçok etkili veri kümesi aslında sadece mevcut verilerin ‘işaretçi’ tarzı listelerinden oluşur; eğer son kullanıcı bu listeleri kendi veri kümesi için indirme listesi olarak kullanmak isterse, bu onlara kalmış bir meseledir, veri küratörlerinin sorumluluğu açısından.
Bunlar arasında Google Research’in Conceptual 12M veri kümesi bulunur; bu, resimlere altyazılar sağlar, ancak sadece bu resimlerin bulunduğu web üzerindeki konumlarına işaret eder (veri kümesinin derlendiği sırada):

Google Research’in Conceptual 12M derlemesinden iki örnek. Kaynak
Bir başka önemli örnek, ve şimdi AI tarihinde saygınlık iddiasında bulunan, LAION veri kümesidir; bu, 2022 yılında Stable Diffusion adlı üretken sistemlerin ortaya çıkmasını sağladı – bu, son kullanıcıya açık kaynaklı üretken resimler sunan ilk böyle bir çerçeve oldu, tıpkı özel sistemlerin böyle hizmetleri salt ticari bir alan olarak kurmaya hazırlandığı gibi:

LAION projesinin birçok varyantından biri, modern ve telif hakkı olan sanat eserlerini içeriyor. Kaynak
Bu ‘işaretçi’ koleksiyonlarının birçok durumunda, yüksek dosya boyutları, indirilebilen ve barındırılan bir dosyada resim içeriği dahil edildiğini gösterebilir; ancak, önemli olmayan download boyutları genellikle yüksek hacimli metin içeriği ve bazen de çıkarılan gömme veya özelliklerden kaynaklanmaktadır – eğitim sürecinde kaynak veriden çıkarılan özetler veya düğümler.
Video Premium
Video veri kümeleri, ‘vekil veri kümesi’ veya işaretçi yaklaşımı için daha güçlü bir durum sunar, çünkü anlamlı ve kullanışlı bir video sayısı birleştirmek için gereken depolama verisi hacmi engelleyici düzeydedir ve bir ‘dağıtılmış’ yöntem arzu edilir.
Ancak, her iki durumda da – özellikle video için – indirilebilen kaynak URL’leri, eğitim süreçlerinde kullanılmadan önce önemli ölçüde daha fazla dikkat gerektirecek verileri temsil eder. Hem resimler hem de videolar, kullanılabilir örnekler oluşturmak için yeniden boyutlandırılması veya kesme kararları yapılması gerekecektir, mevcut GPU alanına sığacak şekilde.
Hatta ciddi şekilde aşağı örneklenen videolar, genellikle 3-5 saniye gibi çok kısa uzunluklara kesilmesi gerekecektir.
Önemli video veri kümeleri arasında, Google’ın Kinetics İnsan Eylem Video Veri Kümesi ve arama devinin YouTube-8M koleksiyonu bulunur; bu, her videoyu işleme şekli konusunda segment annotation kullanır, ancak yine de son kullanıcıya, sağlanan URL’lerden videoları elde etme sorumluluğu bırakır.
Kapalı ve Açık
Son olarak, bu kategoride, ‘açık’ VFX verileri, daha sonra ortaya çıkan veri kümesini yayımlayan ve erişilebilir kılan kapalı platformlarla üretilir. Bunun nedenini merak etmek ve bunun, şirketin kendi kullanımı için IP-dostu olmayan bir akım modelini temizlemek istemesi olabileceği veya ‘yıkanmış’ bir kümenin dışarıdan istenmesi olabileceği konusunda düşünmek makuldür.
Böyle bir ‘nesiller arası yıkama’ örneği, Omni-VFX veri kümesidir; bu, birçok veri noktasını Open-VFX veri kümesinden içerir (kendisi de Pika ve PixVerse gibi kapalı ve yarı kapalı platformlara referanslar içerir).
Şaka yapmıyorum, Omni-VFX gerçekten de bunu denemiyor:

Açık kaynaklı Omni-VFX veri kümesinde tanıdık bir yüz. Kaynak
Soylu Sorumluluk
IP-washing’in ikinci ana yaklaşımı, telif hakkı materyalinin bir veya daha fazla seviyede kullanılmasıdır. Bu kategorideki bir yöntem, sentetik veri kullanmaktır; bu, bir noktada akış yukarıda telif hakkı materyali ile eğitilmiştir. Böyle durumlarda, özellikle sentetik verinin gerçekçi görünümde sonuçlar elde edebildiği durumlarda, telif hakkı materyali, genel dünya modelleri veya uzmanlaşmamış modeller tarafından makul olarak tahmin edilemeyecek veya yaklaşık olarak elde edilemeyecek dönüşümler sağlar.
Bu, özellikle üretken video sistemlerinin ‘imkansız’ olayları üretmesi gerektiğinde ve olaylar genel olarak ‘görsel efektler’ (VFX) kategorisine girdiğinde geçerlidir.
Aslında, bu konuyu gündeme getiren son araştırma makaleleri dizisi, görsel efektler gibi çeşitli ‘imkansız’ olayları üretme yeteneği sunuyor; bu, özel olarak sipariş edilmiş veya ‘açık kaynak’ VFX kliplerine (örneğin, Marvel sinema evrenindeki çok pahalı VFX şotlarına göre) eğitim görmek yerine:
EffectMaker web sitesinden örnekler, kaynak klipteki (solda) ‘aksiyon’un hedef resme (ortada) uygulanması. Kaynak
Yukarıdaki örnekler, EffectMaker projesinin sayfasından geliyor. EffectMaker, bu yıl içinde VFX dinamiklerini bir video klipten alıp yeni bir klipe aktarmaya çalışan ilk teklif değil; aslında bu, AI VFX araştırmalarında bir alt görev haline geliyor*.
Medya devleri gibi Marvel’in, IP konusunda yasal davaları kazanma olasılıklarının daha yüksek olduğunu bilerek, görsel efekt şirketleri ve startups, görsel efekt çerçevelerinin diğer şirketlerin kurumsal IP’sinden arınmış olmasını sağlamak için büyük çaba sarf ediyorlar.
Önde gelenlerden biri Meta; r/vfx subredditde bildirildiğine göre, VFX sanatçılarına AI modellerini Hollywood düzeyinde görsel efekt şotları üretmesi için eğitmeleri karşılığında iyi ücretli bir kış işe alım turu yaptı. various gönderilerde ücret belirtilmedi, ancak biri ’emekli maaşı’ olarak tanımladı.
Parayı Takip Et
Ancak, Meta gibi şirketlerin bile, gerçekten çeşitli ve bol miktarda ad hoc VFX şotları için ne kadar para ödemeye istekli olduklarını merak etmek gerekir; çünkü bir blockbuster film için ortalama tek bir VFX şotu 42.000 ABD Doları civarındadır ve birçokları çok daha yüksek gelir elde eder.
Dahası, VFX-generating AI modellerinin popüler talebe uyacak şekilde, çeşitli standart efekt klişelerini, özellikle de en popüler ve pahalı film kategorilerinden olanlar, içeriyor olacağı makuldür.
VFX profesyonellerinin, daha önce çalıştıkları film kataloğu için şotlar yeniden yaratma olasılığı bir yana (ki bu, ‘özel’ veri kümesi çalışmalarını taklitçi olarak bağlamsallaştırır), bu yeni örneklerin sıfırdan eğitilen yeni bir mimariye değil, aksine LoRAs gibi yardımcı modüllere yönlendirilebileceği ve bu modüllerin bir temel modeli kullandığı durumda, bu sürecin sadece temel modelin ‘IP-temiz’ olması kadar savunulabilir olduğu gerçeği vardır – ve çok azı böyledir.
Benzer şekilde, eğer ‘yeni’ işlem, ince ayar gibi diğer ‘hibrit’ teknikleri kullanıyorsa, görsel efektin değeri, daha eski koleksiyonlardan veya modellerden gelen modeller, öncüller veya gömme bilgilerine dayanıyorsa, çalışmanın orijinalliği kozmetik olarak kalabilir ve meydan okumaya açık olabilir.
İmkansız Görevler
VFX çıktısı alanı, potansiyel AI veri kümesi IP-washing’i açısından özellikle ilgi çekici bir vaka çalışmasıdır; çünkü görsel efekt şotları genellikle ‘imkansız’ şeyler gösterir ve bunların hiçbir açık kaynak alternatifi yoktur.
Örneğin, bir binanın yıkılması, çeşitli kamu malı veya başka şekilde uygun stok kliplerden bir üretken modele entren edilebilir, ancak insan lazer ışınları üretmesini öğretmek istiyorsanız, VFX kliplerine (çalınan veya sipariş edilen) eğitim görmek zorundasınız; böyle şeyler başka hiçbir yerde olmaz.
Aynı şekilde, diğer tür doğal afetler, dramatik sel gibi, mevcut gerçek dünya kaynak materyalinin, dramatik olaylar üzerindeki etkileyici POV’ları yeniden üretmeyeceği muhtemeldir, çünkü (bazı istisnalar hariç) insanlar genellikle felaket bölgelerinden canlı yayın yapmazlar. Bu nedenle, ‘cool views’ felaketler gerçek dünya veri kümelerinde nadirdir ve bunları üretebilen herhangi bir AI modeli muhtemelen bu bilgileri başka bir yerden aldı.
Çoğu arzu edilen AI görev akışı, bu düzeyde spesifisiteye sahip değildir ve bu durumlarda, IP-korunan verilerin faydalarının bulanıklaştırılması o kadar çaba gerektirmeyebilir.
Sonuç: Bağlantılı Ağ
Sadece AI’ı geniş bir zaman diliminde ve yoğun olarak kullananlar, böyle sistemlerin,Comparable örnekler eğitim verisinde yoksa, birden fazla kavramı birleştirmekte zorlandıklarını içgüdüsel olarak anlarlar.
Bu sınırlama, bağlantı olarak bilinir; burada eğitilen kavramların çeşitli yönleri, ilgili unsurlarla birlikte kümelendiği ve kullanıcının istediği yeni bir yapılandırmaya düzenlenmek istendiğinde, kullanışlı, LEGO tarzı yapı taşlarına ayrışmadığı halde.
Bağlantı, özellikle tüm büyük current genAI çerçevelerini karakterize eden difüzyon tabanlı yaklaşımlar için, neredeyse kaçınılmaz bir mimari yerçekimi çukurudur. Ancak, belki de gelecekteki birkaç yıl içinde, eğitilen kavramları daha da ayrıştırarak, daha az provenans belirtisi sunan ve kullanıcıların istediği şekilde birleştirmelerine olanak veren yeni yaklaşımlar ortaya çıkacaktır.
* EffectMaker’a karşı herhangi bir suçlama yapmıyorum, ancak burada AI video araştırmalarında ortaya çıkan bir uygulamanın genelini yorumluyorum.
† Çünkü bu şotlar, bu tür filmlerde para kazandı ve kazanmaya devam ediyor.
Pazartesi, 16 Mart 2026’da ilk kez yayımlandı










