Andersons vinkel
Automatisering af ophavsretssbeskyttelse i AI-genererede billeder

Som diskuteret forrige uge, kan selv de grundlæggende modeller bag populære generative AI-systemer producere ophavsretskrænkende indhold på grund af utilstrækkelig eller mislykket kuratering, samt på grund af tilstedeværelsen af multiple versioner af samme billede i træningsdata, hvilket fører til overfitting, og øger sandsynligheden for genkendelige reproduktioner.
Trods bestræbelser på at dominere det generative AI-område og voksende pres for at begrænse IP-intrång, fortsætter store platforme som MidJourney og OpenAI’s DALL-E med at støde på udfordringer i forbindelse med at forhindre ufrivillig reproduktion af ophavsretsbeskyttet indhold:

Evnen til generative systemer til at reproducere ophavsretsbeskyttet data kommer til syne regelmæssigt i medierne.
Som nye modeller opstår, og som kinesiske modeller vinder dominans, er undertrykkelsen af ophavsretsbeskyttet materiale i grundmodeller en byrdefuld udsigt; faktisk erklærede markedets leder, open.ai, sidste år, at det er ‘umuligt’ at skabe effektive og nyttige modeller uden ophavsretsbeskyttet data.
Tidligere kunst
I forbindelse med den ufrivillige generering af ophavsretsbeskyttet materiale, står forskningsscenen over for en lignende udfordring som inklusionen af pornografi og andet NSFW-materiale i kildedata: man ønsker at have fordelene ved viden (dvs. korrekt menneskekropslære, som historisk set altid har været baseret på nøgenstudier) uden muligheden for at misbruge det.
Ligesom model-skabere ønsker at have fordelene ved det enorme omfang af ophavsretsbeskyttet materiale, der finder vej ind i hyperskala-sæt som LAION, uden at modellen udvikler evnen til faktisk at krænke IP.
Uden hensyn til de etiske og juridiske risici ved at forsøge at skjule brugen af ophavsretsbeskyttet materiale, er filtration for det sidstnævnte tilfælde betydeligt mere udfordrende. NSFW-indhold indeholder ofte distinkte lavniveaus-latente funktioner, der muliggør stadig mere effektiv filtration uden at kræve direkte sammenligninger med virkelige data. I modsætning hertil reducerer latente indlejninger, der definerer millioner af ophavsretsbeskyttede værker, ikke til en samling let identificerbare markører, hvilket gør automatiseret registrering betydeligt mere kompleks.
CopyJudge
Menneskelig dom er en sjælden og dyrekøbt vare, både i kuratering af datasæt og i skabelsen af post-processing-filtre og ‘sikkerheds’-baserede systemer designet til at sikre, at IP-låste materialer ikke leveres til brugerne af API-baserede porte som MidJourney og billed-genereringskapaciteten i ChatGPT.
Derfor tilbyder en ny akademisk samarbejdende mellem Schweiz, Sony AI og Kina CopyJudge – en automatiseret metode til at orkestrere succesive grupper af samarbejdende ChatGPT-baserede ‘dommere’, der kan undersøge inputs for tegn på sandsynlig ophavsretskrænkelse.

CopyJudge evaluerer forskellige IP-krænkende AI-genereringer. Kilde: https://arxiv.org/pdf/2502.15278
CopyJudge tilbyder effektivt en automatiseret ramme, der udnytter store vision-sprog-modeller (LVLMs) til at bestemme væsentlig lighed mellem ophavsretsbeskyttede billeder og dem, der er produceret af tekst-til-billede-diffusionsmodeller.

CopyJudge-tilgangen bruger forstærkning og andre tilgange til at optimere ophavsretskrænkende prompts og derefter bruger information fra sådanne prompts til at skabe nye prompts, der er mindre sandsynlige for at fremkalde ophavsretsbeskyttet billede.
Selv om mange online AI-baserede billed-genereringssystemer filtrerer brugernes prompts for NSFW, ophavsretsbeskyttet materiale, genskabelse af virkelige personer og diverse andre forbudte domæner, bruger CopyJudge i stedet for raffinerede ‘krænkende’ prompts til at skabe ‘rensede’ prompts, der er mindst sandsynlige for at fremkalde forbudte billeder, uden intentionen om direkte at blokere brugerens indsendelse.
Selv om dette ikke er en ny tilgang, går det nogen vej mod at frigøre API-baserede generative systemer fra blot at afvise brugerinput (ikke mindst fordi dette tillader brugerne at udvikle bagdørsadgang til forbudte generationer gennem eksperimenter).
En sådan nylig udnyttelse (siden lukket af udviklerne) tillod brugerne at generere pornografisk materiale på Kling-generative AI-platformen ved blot at inkludere et fremtrædende kors eller krucifiks i billedet, der blev uploadet i en billed-til-video-arbejdsgang.

I en lukket løkke, som Kling-udviklerne lukkede i slutningen af 2024, kunne brugerne tvinge systemet til at producere forbudt NSFW-output ved blot at inkludere et kors eller krucifiks i I2V-seed-billedet. Kilde: Discord
Sådanne eksempler understreger behovet for prompt-sanering i online-generative systemer, ikke mindst fordi maskin-glemsomhed, hvor grundmodellen selv ændres for at fjerne forbudte begreber, kan have uønskede effekter på den endelige modells brugbarhed.
I søgen efter mindre drastiske løsninger, efterligner CopyJudge-systemet menneskebaserede juridiske domme ved at bruge AI til at bryde billeder ned i nøgleelementer som komposition og farve, til at filtrere ud ikke-ophavsretsbeskyttede dele, og sammenligne, hvad der er tilbage. Det inkluderer også en AI-dreven metode til at justere prompts og ændre billed-generering, hvilket hjælper med at undgå ophavsretsspørgsmål, samtidig med at det beskytter kreativt indhold.
Eksperimentelle resultater, som forfatterne fastholder, demonstrerer CopyJudges lighed med state-of-the-art-tilgange i denne forfølgning, og indikerer, at systemet udviser overlegen generalisering og fortolkning, i sammenligning med tidligere arbejder.
Den nye artikel har titlen CopyJudge: Automatiseret ophavsretskrænkelsesidentifikation og -mitigation i tekst-til-billede-diffusionsmodeller, og kommer fra fem forskere på tværs af EPFL, Sony AI og Kinas Westlake University.
Metode
Selv om CopyJudge bruger GPT til at skabe rullende tribunal af automatiserede dommere, understreger forfatterne, at systemet ikke er optimeret til OpenAI’s produkt, og at enhver anden Large Vision Language Model (LVLM) kunne bruges i stedet.
I første omgang kræver forfatternes abstraktions-filtrerings-sammenlignings-ramme, at kildebilleder dekomponeres i bestanddele, som vist i venstre side af skemaet nedenfor:

Konceptuel skema for den første fase af CopyJudge-arbejdsgangen.
I den nederste venstre hjørne ser vi en filtreringsagent, der bryder billedsektioner ned i et forsøg på at identificere karakteristika, der måske er native for et ophavsretsbeskyttet værk i koncert, men som i sig selv ville være for generiske til at kvalificere som en krænkelse.
Multiple LVLMs bruges herefter til at evaluere de filtrerede elementer – en tilgang, der er blevet bevist effektiv i artikler som 2023 CSAIL tilbud Forbedring af faktualitet og begrundelse i sprogmodeller gennem multiagent-debat, og ChatEval, blandt andre forskellige anerkendte i den nye artikel.
Forfatterne fastholder:
‘[Vi] antager en fuldt forbundet synkron kommunikations-debat-tilgang, hvor hver LVLM modtager [svarene] fra [andre] LVLMs, før det foretager den næste vurdering. Dette skaber en dynamisk feedback-løkke, der styrker pålideligheden og dybden af analysen, da modellerne tilpasser deres vurderinger baseret på nye indsigt, der præsenteres af deres peer-grupper.
‘Hver LVLM kan justere sin score baseret på svarene fra de andre LVLMs eller holde den uændret.’
Multiple par af billeder, vurderet af mennesker, er også inkluderet i processen via few-shot in-context learning’
Når ‘tribunalerne’ i løkken er nået til en konsensus-score, der er inden for acceptabelhedsgrænsen, overføres resultaterne til en ‘meta-dommer’ LVLM, der syntetiserer resultaterne i en endelig score.
Mitigation
Herefter koncentrerer forfatterne sig om prompt-mitigationsprocessen, som tidligere beskrevet.

CopyJudges skema for at mitigere ophavsretskrænkelse ved at raffinere prompts og latent støj. Systemet justerer prompts iterativt, ved at bruge forstærkning til at modificere latente variabler, mens prompts udvikler sig, i håb om at reducere risikoen for krænkelse.
De to metoder, der bruges til prompt-mitigation, var LVLM-baseret prompt-kontrol, hvor effektive ikke-krænkende prompts udvikles iterativt over GPT-kluster – en tilgang, der er fuldstændig ‘sort boks’, som ikke kræver indre adgang til modelarkitekturen; og en forstærkning-læring-baseret (RL-baseret) tilgang, hvor belønningen er designet til at straffe output, der krænker ophavsret.
Data og tests
For at teste CopyJudge, blev forskellige datasæt brugt, herunder D-Rep, som indeholder ægte og falske billedpar, vurderet af mennesker på en 0-5-vurdering.

Udforskning af D-Rep-datasættet på Hugging Face. Denne samling parrer ægte og genererede billeder. Kilde: https://huggingface.co/datasets/WenhaoWang/D-Rep/viewer/default/
CopyJudge-skemaet betragtede D-Rep-billeder, der fik 4 eller mere som krænkelseseksempler, med resten tilbage som ikke-IP-relevante. De 4000 officielle billeder i datasættet blev brugt som testbilleder. Yderligere valgte og kuraterede forskerne billeder for 10 berømte tegneseriefigurer fra Wikipedia.
De tre diffusions-baserede arkitekturer, der blev brugt til at generere potentielt krænkende billeder, var Stable Diffusion V2; Kandinsky2-2; og Stable Diffusion XL. Forfatterne valgte manuelt et krænkende billede og et ikke-krænkende billede fra hver af modellerne, hvilket resulterede i 60 positive og 60 negative eksempler.
Baseline-metoderne, der blev valgt til sammenligning, var: L2-norm; Lærte Perceptuelle Billede-Patch-Lighed (LPIPS); SSCD; RLCP; og PDF-Emb. For metrikker blev nøjagtighed og F1-score brugt som kriterier for krænkelse.
GPT-4o blev brugt til at populere de interne debat-hold i CopyJudge, ved at bruge tre agenter i en maksimal periode på fem iterationer på enhver given indsendt billede. Et tilfældigt udvalg af tre billeder fra hver vurdering i D-Rep blev brugt som menneskelig prior for agenterne til at overveje.

Krænkelsesresultater for CopyJudge i den første runde.
Af disse resultater kommenterer forfatterne:
‘[Det] er tydeligt, at traditionelle billed-kopidetektionsmetoder viser begrænsninger i ophavsretskrænkelsesidentifikationstasken. Vores tilgang overgår betydeligt de fleste metoder. For state-of-the-art-metoden, PDF-Emb, som blev trænet på 36.000 eksempler fra D-Rep, er vores præstation på D-Rep lidt ringere.
‘Men dens dårlige præstation på Cartoon IP og Kunstværk-datasættet understreger dens manglende generaliseringskapacitet, hvorimod vores metode viser lige så fremragende resultater på tværs af datasæt.’
Forfatterne bemærker også, at CopyJudge giver en ‘relativt’ mere tydelig grænse mellem gyldige og krænkende tilfælde:

Yderligere eksempler fra test-runderne i den nye artikels supplerende materiale.
Forskerne sammenlignede deres metoder med en Sony AI-involveret samarbejde fra 2024 med titlen Detektion, forklaring og mitigation af memorisation i diffusionsmodeller. Dette arbejde brugte en finjusteret Stable Diffusion-model med 200 memorerede (dvs. overfit) billeder til at fremkalde ophavsretsbeskyttet data under slutningen.
Forfatterne fandt, at deres egen prompt-mitigationsmetode, i forhold til 2024-arbejdet, var i stand til at producere billeder, der var mindre sandsynlige for at fremkalde krænkelse.

Resultater af memorization-mitigation med CopyJudge sammenlignet med 2024-arbejdet.
Forfatterne kommenterer her:
‘[Vores] tilgang kunne generere billeder, der er mindre sandsynlige for at fremkalde krænkelse, mens de opretholder en sammenlignelig, lidt reduceret match-nøjagtighed. Som vist i [billedet nedenfor], kan vores metode effektivt undgå manglerne i [det tidligere] arbejde, herunder fejl i at mitigere memorisation eller generere højst afvigende billeder.’

Sammenligning af genererede billeder og prompts før og efter mitigering af memorisation.
Konklusion
Selv om studiet præsenterer en lovende tilgang til ophavsretssbeskyttelse i AI-genererede billeder, kunne afhængigheden af store vision-sprog-modeller (LVLMs) til krænkelsesdetektion kunne rejse bekymringer om bias og konsistens, da AI-drevne domme måske ikke altid vil være i overensstemmelse med juridiske standarder.
Måske mest vigtigt antager projektet også, at ophavsretssikring kan automatiseres, på trods af virkelige juridiske beslutninger, der ofte involverer subjektive og kontekstuelle faktorer, som AI kan have svært ved at fortolke.
I den virkelige verden synes automatiseringen af juridisk konsensus, især omkring output fra AI, sandsynligvis at forblive et kontroversielt spørgsmål langt ud over denne tid og langt ud over området, der behandles i dette arbejde.
Først publiceret mandag, 24. februar 2025












