Connect with us

Andersons vinkel

IP-Vasking Metoder i AI

mm
An AI-generated image of Lady Justice surrounded by 'laundered' data. GPT-1.5.

Hvis det kommer en juridisk oppgjør over bruken av immaterielle rettigheter i trening av AI, finnes det også flere metoder for å skjule slik bruk.

 

Meninger Den nåværende, raskt fremadskridende revolusjonen i generativ AI utvikler seg i den mest juridisk prekære miljøet som har fulgt noen transformasjonsteknologisk utvikling siden det nittende århundre.

Inntil 3-4 år siden, nøt maskinlæringsforskningsmiljøet en tilsynelatende (ofte eksplisitt) fullmakt til å utnytte IP-beskyttet materiale i utviklingen av nye systemer; siden disse systemene ikke ennå var suksessfulle, i betydning av å være modne eller kommersielt levedyktige, var resultater i alle sammenhenger akademiske.

I denne perioden signaliserte den plutselige suksessen til en ny generasjon av diffusjonsbaserte store språkmodeller (LLM, som ChatGPT og Claude) og visuelt-språkmodeller (VLM, som Sora) at disse abstrakte og hittil ‘harmløse’ forskningsstrømmer hadde utviklet seg til kommersiell levedyktighet, og vokst ut av sin ‘fri pass’, så langt som utnyttelsen av andres immaterielle eiendomsrett var bekymret.

Fra nå av ville rettighetshaverne søke en andel i fruktene av AI-systemer trent hovedsakelig eller delvis på deres opphavsrettslige eller på annen måte beskyttede data, noe som førte til en pågående lavine av rettssaker som krever en del innsats for å bare holde orden.

Begrenset bare til saker som er innledet i USA, nye saker oppstår i en frenetisk takt i USA og ellers.

Begrenset bare til saker som er innledet i USA, nye saker oppstår i en frenetisk takt i USA og ellers. Kilde

Krev en ‘gratis lunsj’

Den finansielle forpliktelsen som nå skjer i forhold til AI-tjenesteytende infrastruktur har blitt forslagt av noen stemmer som et forsøk på å etablere ‘opphavsrettsfarlig’ AI så dypt i samfunnsøkonomien at det blir ikke bare ‘for stort til å feile’, men også ‘for kraftig til å saksøke’ – eller for kraftig, i alle fall, at vellykkede søksmål kunne bli tillatt å snu revolusjonen.

Mot denne generelle holdningen er den nåværende presidenten i USA i ferd med å sette sin politikk sine synspunkter at ‘Du kan ikke forventes å ha en suksessfull AI-program når hver enkelt artikkel, bok eller noe annet du har lest eller studert, skal betales for’.

Virkelig? Ingen lignende eller sammenlignbare hendelser har skjedd i den vestlige industritiden, og dette representerer en bevegelse som gniser hardt mot den tradisjonelle amerikanske kulturen av søksmål og erstatning; kanskje de nærmeste lignende posisjoner er den obligatoriske utløpingen av medisinske patenter etter 20 år (i seg selv ofte under angrep), og begrensningen på forventninger om personvernet i offentlige steder.

Men tider endrer seg; i fravær av noen garanti for at den nåværende trenden mot ‘tvungen domene’ mot IP-beskyttelse ikke vil svikte, eller bli reversert senere, finnes det flere sekundære tilnærminger som blir standard praksis i utviklingen av AI-systemer, og behandlingen av den meget omstridte treningsdataen som driver det.

Datasett ved proxy

En av disse tilnærmingene tar en merkbart lignende tilnærming til (ikke alltid suksessfulle) forsvar fra torrent-listing-sider som hevder at de ikke faktisk har noen kontroversiell materiale – eller noen materiale i det hele tatt.

Foruten å unngå behovet for å lagre og betjene store mengder minimalt komprimerte bilde- eller videodata, tillater samlinger av denne typen rask oppdatering – som fjerning av materiale på opphavshavernes forespørsel – og versjonering.

Akkurat som torrents bare er veivisere til hvor IP-beskyttet materiale kan finnes, er en rekke svært innflytelsesrike datasett i seg selv bare ‘peker’-lignende lister over eksisterende data; hvis sluttbrukeren ønsker å bruke disse listene som en nedlastingsliste for deres eget datasett, er det på dem, så langt som kuratorens ansvar synes å være bekymret.

Blant slike er Google Researchs Conceptual 12M-datasett, som gir underskrifter for bilder, men bare peker på steder på nettet hvor disse bildene eksisterer (eller eksisterte på tidspunktet for kurering):

To eksempler fra Google Researchs Conceptual 12M-kurering.

To eksempler fra Google Researchs Conceptual 12M-kurering. Kilde

En annen fremtredende eksempel, og en som nå har en gyldig krav på respekt i historien om AI, er LAION-datasettet som muliggjorde fremkomsten av Stable Diffusion-generativt system i 2022 – det første slike rammeverk som tilbød kraftfulle åpne kildegenerative bilder til sluttbrukere, akkurat som proprietære systemer syntes å etablere slike tjenester som en ren kommersiell domene:

En av de mange variantene av LAION-prosjektet, med moderne og opphavsrettslige kunstverk.

En av de mange variantene av LAION-prosjektet, med moderne og opphavsrettslige kunstverk. Kilde

I mange tilfeller indikerer de høye filstørrelsene til noen av disse ‘peker’-samlingene inklusjon av bildeinnhold i en nedlastbar og vertsfilt fil; imidlertid er de ikke-trivielle nedlastingsstørrelsene ofte på grunn av den høye volumet av tekstinnhold, og noen ganger inklusjon av uttrukne funksjoner eller egenskaper – utledede summer eller noder av ellers anvendelige innhold utledet fra kilde-data under treningsprosessen.

Video-premium

Videodatasett presenterer en enda sterkere sak for ‘datasett ved proxy’- eller peker-tilnærmingen, siden den høye volumet av lagringsdata som kreves for å samle en meningsfull og nyttig mengde videoer i en enkelt nedlastbar samling er forbudt, og en ‘distribuert’ metode er ønskelig.

Men, i begge tilfeller – men spesielt med video – representerer de nedlastbare kilde-URL-ene data som vil trenge betydelig ytterligere oppmerksomhet før de kan brukes i treningsprosesser. Begge bilder og videoer vil trenge å bli større eller mindre, eller beslutninger om beskjæring må gjøres, for å skape prøver som vil passe inn i tilgjengelig GPU-plass. Selv alvorlig nedskalerte videoer vil også trenge å kuttes ned til svært korte lengder, som 3-5 sekunder, typisk.

Notable videodatasett som bruker referanser til nettvideoer (i stedet for kurering og direkte pakking av video) inkluderer Googles Kinetics Human Action Video Dataset, og søkejettens YouTube-8M-samling, som bruker segment annotasjon for å indikere hvordan hver video skal behandles en gang den er lastet ned – men som igjen lar sluttbrukeren få videoene fra de supplerte URL-ene.

Lukket og åpen

Til slutt, i denne kategorien, kan ‘åpne’ VFX-data genereres med lukkede plattformer som deretter publiserer og gjør datasettet tilgjengelig. Det er rimelig å undre seg over hvorfor dette skjer, og å vurdere om det kan være fordi det opprinnelige selskapet ønsker å sanere en IP-ufvennlig oppstrømsmodell, for deres egen bruk; eller at en ‘vasket’ sett ble bedt om fra utsiden.

En slik sak med ‘generasjonsvasking’ er, kan man si, Omni-VFX-datasettet, som inkorporerer mange datapunkter fra Open-VFX-datasettet (som selv refererer til mange lukkede og semi-lukkede plattformer, som Pika og PixVerse).

For å være ærlig, Omni-VFX prøver ikke engang virkelig:

I det åpne kilde-Omni-VFX-datasettet, et kjent ansikt.

I det åpne kilde-Omni-VFX-datasettet, et kjent ansikt. Kilde

Ansestral ansvar

Den andre store tilnærmingen til IP-vasking er gjennom bruk av opphavsrettslig materiale på ett eller flere trinn. En av metodene i denne kategorien er å bruke syntetisk data som er trent, på et eller flere punkter oppstrøms, på opphavsrettslig materiale. I slike tilfeller, spesielt hvor syntetisk data kan oppnå autentisk-utseende resultater, tilbyr opphavsrettslig arbeid transformasjoner som ikke rimelig kan gjettes eller approksimert av generelle verdensmodeller eller ikke-spesialiserte modeller.

Dette er særlig tilfelle hvor generative videosystemer kreves for å generere ‘umulige’ hendelser, og hendelser som ville falle generelt inn i kategorien ‘visuelle effekter’ (VFX).

I virkeligheten, det som førte dette emnet til minne var den siste i en rekke av forskningsartikler som tilbyr evnen til å ‘abstrahere’ forskjellige typer visuelle effekter, som å produsere laserstråler fra usannsynlige deler av kroppen, enten ved å ha blitt trent på tilpassede eller ‘åpne kilde’-VFX-klipp (i stedet for den mer åpenbare kilde, som de svært dyre VFX-skuddene funnet i utgang fra Marvel-kosmosen):

Eksempler fra EffectMaker-nettstedet, hvor ‘aksjonen’ i kildeklippet (langt til venstre) blir brukt til et kildebilde (midten). Kilde

De ovennevnte eksemplene kommer fra prosjektsiden for EffectMaker-prosjektet. EffectMaker er ikke engang det første tilbudet i år som søker å trekke ut VFX-dynamikk fra ett video-klipp og overføre det til et nytt klipp, og i virkeligheten er dette i ferd med å bli en diskret underoppgave i AI-VFX-forskning*.

Ved å være klar over at medie-kjemper som Marvel har en høyere enn gjennomsnittlig sjanse til å vinne rettssaker over IP (selv i den ovennevnte klimaet av ‘tvunget toleranse’), er visuelle effekt-selskaper og start-ups nå i ferd med å gå til betydelige lengder for å sikre at deres generative VFX-rammeverk er fri for andre selskapers korporative IP.

Fremst blant disse er Meta, som er blitt rapportert på r/vfx-subreddit å ha gått på en godt betalt vinter-rekrutterings-runde inn i 2026, og tilbyr VFX-kunstnere arbeid med å trene AI-modeller til å produsere Hollywood-nivå visuelle effekter. Selv om lønnen ikke var spesifisert over flere poster, beskrev en det som ‘pensjons-penger’.

Følg pengene

Men, en må undre seg over hvor mye penger selv Meta er villig til å betale for en virkelig mangfold og overflod av ad hoc VFX-skudd, gitt at den gjennomsnittlige enkelt VFX-skudd for en blockbuster-film er rundt 42 000 USD – og mange kommer inn mye høyere.

Videre, er det rimelig å anta at tilpassede VFX-genererende AI-modeller vil etterkomme populær etterspørsel, inkludert forskjellige standard-effekt-troper fra de mest populære og dyreste kategoriene av filmer.

Bortsett fra synspunktet at ‘resterende’ VFX-fagfolk kan ende opp med å gjenskape skudd de arbeidet på for en eksisterende filmkatalog – som i seg selv kontekstualiserer ’tilpasset’ datasett-arbeid som imitativ – er det i alle fall ingen garanti for at disse dyre nye prøver vil ende opp med å bli trent ‘fra null’ i en ny arkitektur.

I virkeligheten, hvis slike rekreasjoner blir avledet til hjelpe-moduler som LoRAs, som avhenger av en basis-modell, er prosessen bare like forsvarlig som basis-modellen er ‘IP-rent’ – og ikke mange er.

Tilsvarende, hvis den ‘nye’ prosessen bruker andre ‘hybride’ tekniker som finjustering, hvor verdien av den visuelle effekten avhenger av modeller, priorer, eller innkapslinger fra eldre samlinger eller modeller av ubestemt integritet, er originaliteten av arbeidet kosmetisk, og underlagt utfordring.

Umulige oppdrag

Domene for VFX-utgang er en særlig interessant case-studie i forhold til potensiell IP-vasking i AI-datasett, siden visuelle effekt-skudd ofte avbilder ‘umulige’ ting som det vil være ingen åpne kilde-alternativer tilgjengelige for.

For eksempel, mens rivningen av en bygning kunne bli trent inn i en generativ modell fra forskjellige offentlige domene eller på annen måte rimelige lager-klipp, hvis du ønsker å trene en modell til å produsere menneskelige laserstråler, må du trene på VFX-klipp, stjålet eller bestilt; ting som det skjer ikke andre steder.

Selv i tilfelle andre typer naturkatastrofer, som dramatisk flom, er tilgjengelig virkelige kilde-materiale usannsynlig å kunne gjenskape dramatiske POVer på katastrofale hendelser, fordi (med noen unntak) mennesker ikke vanligvis direkteoverfører fra katastrofale steder. Derfor er ‘kjølige utsikter’ på katastrofer sjeldne i virkelige datasett, og noen AI-modell som kan generere dem, liker å ha fått informasjonen fra andre steder.

De fleste ønskede AI-oppgaver har ikke denne slags spesifikke nivå, og i slike tilfeller kan skjulelsen av fordelen av IP-beskyttet data ikke trenge nær like mye innsats.

Konklusjon: En intrikat nett

Bare de som har brukt generativ AI omfattende og over en vedvarende periode vil instinktivt forstå at slike systemer sliter med å kombinere flere konsepter når ingen sammenlignbare eksempler eksisterer i deres treningsdata.

Denne begrensningen er kjent som intrikasjon, hvor de forskjellige aspektene av trente konsepter tenderer til å kluster sammen med relaterte elementer, i stedet for å dekomponere inn i håndige, Lego-lignende byggeklosser som kan arrangeres inn i noen ny konfigurasjon brukeren måtte ønske.

Intrikasjon er en arkitektonisk tyngdekraft som er nesten umulig å unnslippe, i alle fall for de diffusjonsbaserte tilnærmingene som karakteriserer alle de større nåværende genAI-rammeverkene. Imidlertid kan det være at nye tilnærminger oppstår over de neste årene som er bedre på å diskretisere trente konsepter så de kan bli satt sammen mer behendig, og tilbyr færre indikasjoner på deres proveniens.

 

* Jeg anklager ikke EffectMaker, men kommenterer her på generaliteten av en fremvoksende praksis i AI-video-forskning.

Fordi disse skuddene, i disse typene filmer, har generert og fortsetter å generere penger.

Først publisert mandag, 16. mars 2026

Forfatter på maskinlæring, domeneekspert på menneskesynthese. Tidligere leder for forskningsinnhold på Metaphysic.ai.