Connect with us

Tankeledere

Å beholde originalt innhold trygt i en tid med AI-tyveri og etterligning

mm

Med sin evne til å etterligne, etterligner AI stemmer, kloner ansikter, stjeler kreative stiler og til og med overtar innholdsideer rett og slett. Dette stjålne og “deepfake”-innholdet, som varierer fra latterlige til mistenkelige til skumle, sprer seg deretter over milliarder av enheter over hele verden.

Resultatet: deepfake-svindeltilfeller økte 1 740% i Nord-Amerika mellom 2022 og 2023, mens antallet deepfakes på nettet økte fra om lag 500 000 i 2023 til omtrent 8 millioner i 2025.

Når AI flomer plattformene med deriverte innhold, blir det vanskeligere for ekte skapere å trekke seg frem. Publikum blir skeptiske til all innhold, og skaperes levebrød, rykte og ekte forbindelse med publikum settes på spill.

Skaperne fortjener bedre forsvar.

Den doble trussel

Truslene mot skaperne opererer på to primære nivåer.

Det første er at “innholdspirater” kan trene sine generative modeller på skaperinnhold uten å gi kreditt eller kompensasjon. Noen selskaper skjuler seg bak “fair use” eller hevder at innholdet allerede er ute der for alle å se – tøff tilfeldighet. Men disse argumentene er juridisk uklare og moralsk tvilsomme.

Det andre, deepfakes og syntetisk media, er rett og slett etterligninger og stadig mer uvirkelige. For eksempel trenger stemmesvindlere bare tre sekunder med lyd for å klone en stemme med 85% nøyaktighet, komplett med naturlig intonasjon, rytme, emosjon, pauser og pusting. Tidlig i 2025 møtte influenceren Dr. Mike Varshavski en deepfake av seg selv på TikTok som promoterte et falskt “mirakel”-supplement. Hans likhet ble brukt til å bedra publikum han hadde bygget opp over mer enn ett tiår.

Selv om det er en økende erkjennelse av disse problemene – Anthropic AI nylig gikk med på en rekordhøy $1,5 milliarder forlik mot krav om at de brukte piratbøker til å trene sin Claude-chatbot – kan skaperne ikke bare stole på rettssystemet til å beskytte dem.

Kontrakt- og samarbeidsbeskyttelse

Det beste forsvaret mot AI-utnyttelse starter før skaperne laster opp innhold eller signerer merkeavtaler – de må inngå klare kontrakter som uttrykkelig definerer lisensrettigheter og hvordan innhold skal brukes.

Kontraktene bør inkludere “ingen AI-trening”-klausuler som forbyr originalinnholdets bruk i trening av generative modeller uten samtykke og som krever varsling hvis merker gjør AI-modifiseringer av skaperlevert innhold. Krav om kredittering, som sikrer at kreditter alltid følger arbeidet, bør være uforhandelige. Plattformene som prioriterer gjennomsiktig samarbeid kan hjelpe med å håndheve disse beskyttelsene systematisk. For plattformene som ikke gjør det – bør skaperne være forsiktige med å bruke dem i det hele tatt.

Hvis skaperne vil at deres arbeid skal brukes til AI-trening eller deriverte kommersielle anvendelser, bør de forhandle om royalties eller kontinuerlige lisensavgifter i stedet for engangsbetaling. Når samarbeid bygges rundt gjennomsiktige poster over innholdbruk, blir det betydelig vanskeligere for uautoriserte AI-modifiseringer eller trening å skje uten å bli oppdaget – og lettere å håndheve overtredelser når de skjer.

Noen plattformer er under bygging for å løse nettopp dette – å muliggjøre at skaperne kan spore hvor deres innhold vises over betalte mediekanaler. Så, hvis merker forsterker skaperinnhold gjennom sosiale mediepartnerskapsannonser, beholder skaperen oversikt over distribusjon og beholder korrekt kredittering.

I alle tilfeller er det essensielt å lese vilkårene for tjenesten nøye. Plattformene som YouTube har gitt skaperne mulighet til å tillate tredjeparts AI-selskaper å trene på deres videoer – millioner av skapere uvitende velger dette uten noen løfte om kompensasjon – mens andre har mer restriktive standardinnstillinger som prioriterer skaperens eierskap til dataene.

Teknisk beskyttelse og systemisk endring

Utenom bare kontrakter bør skaperne presses for infrastruktur-nivå-beskyttelse og utnytte teknologi til å beskytte sitt arbeid.

Hvert eksportert innholdselement bør inkludere innebygde metadata som følger standarder som IPTC 2023.1 som tillater skaperne å innlemme AI-utvinningstillatelser i innholdet selv. Koalisjonen for innholdsgyldighet og autentisitet (C2PA) har også utviklet standarder som skaper tamper-beviselige poster over innholdets opphav.

Digimarc eller Google’s SynthID bruker på samme måte usynlige digitale vannmerker som holder stand selv gjennom omstøping og komprimering, mens verktøy som Nightshade kan endre bildepixel i måter som er usynlige for mennesker, men som bedrar maskinlæringsmodellene til å se bildene som noe annet.

Andre plattformer integrerer nå ytelsessporing og analyse for hvert enkelt originalt innhold, slik at skaperne kan identifisere uautorisert bruk. Ved å overvåke hvor innhold vises og hvordan det utfører seg over kanaler, kan skaperne spore mistenkelig aktivitet som når deres innhold brukes av kampanjer eller kontoer de aldri har autorisert.

Infrastruktursystemer som konsoliderer kampanjeledelse, innholdsgodkjenning og ytelsesmåling til enhetlige plattformer, er kritiske. De bygger beskyttelsesmekanismer på hvert trinn, i stedet for å tvinge skaperne til å sette sammen løsrevne verktøy som etterlater seg hull for utnyttelse.

Å bevare kreativitet

Skaperøkonomiens langsiktige helse avhenger av å bevare ekte stemmer, distinkte perspektiver og tillit mellom skapere og deres samfunn.

For å gjøre dette, kan skaperne ikke bare vente på den magiske kula – de må begynne med å forhandle om mer robuste kontrakter, arbeide med skaper-vennlige plattformer, fremme samtykke-basert AI-trening og dokumentere arbeidets opphav. På den andre siden av ligningen må innholdplattformene bygge infrastruktur som beskytter skaperrettigheter som standard, med tanke på at bærekraftige systemer må bygge tillit for å lykkes i fremtiden. Skaperne bør ikke kreve mindre.

AI er bare like kreativt som de ekte menneskene det lærer av. Men å lære er en ting. Å stjele er en annen.

Liran Liberman er administrerende direktør i Humanz, en global plattform som bygger AI-infrastrukturen for skaperøkonomien. Under hans ledelse har selskapet akselerert sin vekst gjennom AI-innovasjon og strategiske oppkjøp, inkludert Ubiquitous og Bambassadors.

En tidligere toppleder i Google og en MBA-grad fra Kellogg School of Management, fokuserer Liberman på å gjøre skapermarkedsføring til en skalerbar, data-drevet vekstkanal drevet av AI og proprietær skaperdata.