Intervjuer
Dr Mathilde Pavis, sjef for juridiske spørsmål, OpenOrigins – Intervju-serie

Dr Mathilde Pavis, sjef for juridiske spørsmål i OpenOrigins, er en ledende ekspert på AI-regulering og digital mediestyring, med spesialisering på deepfakes, syntetisk media og innholdsherkomst. Hun rådgir selskaper, regjeringer og fagforeninger om overholdelse, lisensiering og risiko i generativ AI, og har arbeidet med Microsoft og ElevenLabs på AI-politikk og strategi. Hun har også rådgitt UNESCO om AI og immaterielle rettigheter, og bidrar jevnt med ekspertvitnesbyrd til britiske beslutningstakere.
OpenOrigins utvikler teknologi for å bekjempe desinformasjon og deepfakes ved å lage verifiserbare, uforanderlige poster over digitalt innhold. Deres plattform fokuserer på å etablere tydelig herkomst, som gjør det mulig for media, skapere og plattformer å bevise når og hvordan innholdet ble laget, redigert og distribuert – en stadig viktigere evne ettersom syntetisk media blir mer avansert og vanskeligere å oppdage.
Du har rådgitt regjeringer, globale institusjoner som UNESCO, og selskaper som Microsoft og ElevenLabs om AI-regulering. Hva ledet deg til å fokusere spesifikt på deepfakes, digitale kopier og syntetisk media, og hvordan påvirkte den reisen din beslutning om å etablere Replique?
Min arbeid med deepfakes begynte ikke med teknologien – det begynte med et mye eldre juridisk puslespill. Da jeg startet å forskke på immaterielle rettigheter for min doktorgrad i 2013, ble jeg slått av hvor mye mindre beskyttelse utøvere mottar sammenlignet med forfattere, komponister eller filmmakere. I praksis betyr det at dine ord eller din musikk ender opp med bedre beskyttelse i loven enn din stemme, ditt ansikt og din kropp. Den ubalansen føltes merkelig, og det førte meg til å stille en dypere spørsmål: hvordan verdsetter vi kulturelt og juridisk arbeidet til noen hvis bidrag er deres ansikt, stemme og kropp på skjermen?
Det spørsmålet ledet meg inn i utøverrettigheter og data. På den tiden ble det ansett som et nisjeområde med liten kommersiell relevans. Jeg ble aktivt rådet til å flytte inn i mer “lucrative” felt som patenter eller tradisjonell opphavsrett. Antakelsen var at spørsmål om en persons likhet eller stemme i hovedsak ble håndtert uformelt – gjennom bransjenormer eller “gentlemannsavtaler i Hollywood”. Men for meg signaliserte mangelen på formell beskyttelse en åpning, ikke en blindvei for min forskning, så jeg holdt fast ved det.
Hva som har endret seg, er at i dag er nesten alle utøvere. Våre liv er formidlet gjennom kameraer – på telefoner, bærbare datamaskiner, videomøter og sosiale plattformer. Uansett om det er for arbeid eller personlig bruk, mennesker er konstant opptatt av å spille inn og dele versjoner av seg selv. De juridiske spørsmål som tidligere bare gjaldt skuespillere eller musikere, gjelder nå for alle med en smartphone.
Deepfakes skapte ikke disse problemene – de avdekket og akselererte dem. Forskningen jeg hadde gjort fra 2013 og utover, ble plutselig viktig. Rundt 2017 og 2018 begynte utviklingen av neurale nettverk – spesielt fra steder som MIT og UC Berkeley – å vise hvordan en persons ansikt, stemme og kropp kunne bli digitalt manipulert. Innen ett år ble denne evnen vidt kjent som “deepfakes”, og den fikk først stor oppmerksomhet på grunn av skadelig bruk, spesielt gjennom ikke-samtykkende seksuelt innhold som rammet kvinner og barn.
Først senere oppstod de kommersielle implikasjonene, da de kreative industrene begynte å ta i bruk syntetisk media. Da kom de kontraktmessige og økonomiske spørsmålene jeg hadde arbeidet med, til fremtreden. Nesten over natten ble det som tidligere ble ansett som et teoretisk eller doktrinært område av loven, et praktisk, kommersielt signifikant og sosialt presserende felt.
I kjernen har den juridiske utfordringen ikke endret seg: mennesker ønsker å dele aspekter av seg selv, men ønsker likevel å beholde meningsfull kontroll. Eksisterende rammer strever med denne nyanseringen. De tenderer til å behandle individer som enten fullstendig private eller fullstendig offentlige – enten beskyttet eller rettferdig spill. Men de fleste mennesker eksisterer et sted i mellom. Den spenningen er nå sentral ikke bare for profesjonelle utøvere, men for alle som deltar i digitalt liv.
Jeg ble kjent som noen som forsket og arbeidet i dette området, noe som ledet meg til å arbeide med regjeringer som var interessert i å beskytte mennesker mot deepfakes, og selskaper som ønsket å gjøre digitale kloningprodukter trygge å bruke, som ElevenLabs. I Replique bringer jeg alt jeg har lært til mennesker og selskaper som ønsker å bruke digital kloning eller digitalt kopi-teknologi på en ansvarlig og trygg måte. Jeg har i praksis omdannet min “blå himmel”-forskning til en rådgivningsvirksomhet som bringer spesialisert juridisk rådgivning til de kreative industrene.
Som sjef for juridiske spørsmål i OpenOrigins, et selskap som fokuserer på å etablere en uforanderlig post over innholdsherkomst for å bekjempe deepfakes, hvordan ser du på proveniens-baserte systemer som konkurrerer med eller erstatter tradisjonelle deepfake-oppdagingstiltak?
Å sammenligne deepfake-oppdagingstøyler kan raskt bli en øvelse i å sammenligne epler og pærer, fordi deres effektivitet avhenger av kontekst og formål. Fra en politisk synsvinkel, hva vi trenger, er et utvalg av komplementære verktøy – det finnes ingen enkelt “best” løsning, og OpenOrigins er bare en del av det videre økosystemet. Der OpenOrigins’ teknologi skiller seg ut som en deepfake-oppdagingstøy, er i situasjoner hvor en innholdsskaper eller informasjonsorganisasjon trenger å bevise autentisiteten av innholdet de deler med partnere, publikum eller offentligheten.
Ved å tilby verifiserbar proveniens og “kvitteringer” ved opphavsøyeblikket, tilbyr det en sterk form for forebygging ved å demonstrere at innholdet ikke er en deepfake. Imidlertid er denne tilnærmingen mindre nyttig for vanlige internettbrukere som ønsker å raskt vurdere innhold de møter på nettet. I slike tilfeller, avhenger oppdagingen mer av probabilistiske og innholdsanalysemetoder enn proveniens-basert verifisering. Vi trenger forskjellige verktøy for forskjellige behov, og vi må akseptere at det ikke finnes noen sølvpil mot deepfakes.
Fra et juridisk ståsted, hva er i øyeblikket den største gapet i hvordan jurisdiksjoner håndterer samtykke og eierskap i AI-generert eller AI-replikert innhold?
Oof, hvor lenge har du? Svaret avhenger av hva vi mener med AI-generert eller replikert innhold. Problemene varierer avhengig av om du ser på et AI-generert bilde av et hus eller en katt. Eller digital rekonstruksjon av en persons ansikt eller stemme. La oss holde oss til emnet om deepfakes og digitalt kopi, og svare på spørsmålet i konteksten av “digital kloning”.
Når det gjelder samtykke, er kjerneproblemet at de fleste kontrakter – enten det er ansettelsesavtaler eller plattformsvilkår – inneholder brede, vage klausuler som gir omfattende rettigheter over brukerinnhold. Disse kan tolkes som en form for “bakdør-samtykke” hvor å godkjenne vilkårene kan anses å bety å samtykke til bruksområder som kloning, selv om de fleste mennesker sterkt ville bestride denne tolkningen. Dette skaper et betydelig gap mellom juridisk tolkning og brukerforventning, et gap som for tiden fordeler selskaper mens reguleringen ligger etter.
Når det gjelder eierskap, finnes det ingen klar juridisk svar på hvem som eier en digital kopi, fordi eksisterende rammer som datavern og opphavsrett ikke var designet for denne teknologien. I dag blir de fleste mennesker scannet og klonet på jobben, på oppdrag og med finansiering fra en arbeidsgiver eller en kunde. Og disse entitetene forventer vanligvis en høy grad av kontroll over denne eiendommen, noe som er forståelig, men ofte problematisk fordi denne eiendommen er en digital kopi av ditt ansikt eller din stemme, og kan få deg til å si ting du aldri har sagt, eller gjøre ting du aldri har gjort.
Spørsmålet om “hvem eier din kopi?” er veldig viktig, men ubesvart i loven i dag.
Du har arbeidet tett på talekloningsteknologi. Hva er de mest misforståtte juridiske risikoene når det gjelder syntetiske stemmer, både for selskaper og enkeltpersoner?
Det mest misforståtte spørsmålet i juridisk overholdelse er balansen mellom et selskaps kommersielle interesse i å finansiere og utnytte en digital kopi, og enkeltpersonens rett til personvern og digital verdighet. Denne spenningen ligger over flere juridiske regime (primært immaterielle rettigheter, datavern og personvern) som aldri var designet til å fungere sammen og tolke kloning på grunnleggende forskjellige måter. Som følge av dette er det komplekst og ofte uklart å oversette dette til praktisk, forretningsvennlig praksis. Selskaper overse derfor ofte nøkkelrisiko eller incarnerer betydelige kostnader for å navigere dem ordentlig. Dette skaper et pervert resultat hvor ansvarlig overholdelse blir den vanskeligere og dyrere vei, snarere enn standarden.
Hvordan bør bedrifter tenke om samtykke-arkitektur i AI-systemer, spesielt når det gjelder likhet, identitet og treningdata?
Selskaper bør designe sine systemer rundt tre kjerneevner. Først, de må sikre informert, kontekstuell samtykke ved oppstart. For det andre, må de gjøre det enkelt for brukere å trekke tilbake dette samtykket og slette noen eller all deres data, noe som er teknisk utfordrende og ofte overse, men essensielt for overholdelse av lover som UK og EU GDPR og lignende regime i USA. Å opprettholde samtykke over tid, betyr å bygge systemer hvor tilbaketrekking er operasjonelt glatt og i tråd med forretningsmodellen.
Samtykke må være granulert. Og for det tredje, bør brukerne kunne håndtere tillatelser på filnivå, oppdatere deres likhetsdata og forstå hvordan den brukes. Dette krever transparens og kontroll – verktøy som tillater brukerne å overvåke, gjennomgå og moderere hvordan deres digitale kopier blir deployert. Denne graden av fleksibilitet er fortsatt sjelden, men det ligger der konkurransesfordelen øker.
I din erfaring med å rådgive både start-ups og regjeringer, hvor er den største misforståelsen mellom hvordan AI blir bygget og hvordan det blir regulert?
Misforståelsen mellom hvordan AI blir bygget og hvordan det blir regulert, kommer ned til fundamentalt forskjellige mål. Regjeringer regulerer i det offentlige interesse, mens AI-selskaper (ofte venture-backede) drives primært av vekst, inntekt og fortjeneste. Disse prioritetene konflikt ikke alltid, men de trekker ofte i forskjellige retninger, med regulering sett på som en begrensning snarere enn en støtte.
Dette skaper en strukturell spenning: regulatorer og innovatører opererer med forskjellige incitamenter, verdier og til og med språk. Dette gjør tilpasning vanskelig i praksis, selv om det ikke er umulig. Vi begynner å se en ny bølge av teknologiselskaper som ligner mer på offentlige interesse-mål, men de forblir unntakene snarere enn regelen – spesielt blant de som vellykker å skalerer.
OpenOrigins fokuserer på å verifisere innhold ved opphavsøyeblikket ved å bruke kryptografisk proveniens. Hvor kritisk er denne opphavs-først-tilnærmingen sammenlignet med sikkerhetstiltak etter distribusjon?
Dette løper tilbake til mitt svar ovenfor. Å autentisere innhold ved opphav, “oppstrøms” er langt mer effektivt enn å prøve å verifisere det ved distribusjons- eller forbrukspunktet, dvs. “nedstrøms”. Å autentisere innhold ved opphav er som å spore mat fra øyeblikket den dyrkes på gården, snarere enn å prøve å finne ut av hva som er på din tallerken. Hvis du vet hvor kycklingen ble oppdratt, hvordan den ble behandlet og hvordan den beveget seg gjennom forsyningskjeden, kan du stole på hva du spiser. Hvis du derimot prøver å gjette alt dette bare ved å se på den ferdige retten, baserer du deg på gjetting. Det samme gjelder for å skille mellom menneskeskapt og AI-generert innhold på nettet: proveniens ved kilde gir deg verifiserbar sikkerhet, mens nedstrøms-oppdaging er innebygget mer usikker og reaktiv.
Hva rolle ser du for standarder som C2PA i fremtiden for media, og er de tilstrekkelige på egen hånd til å gjenopprette tillit på nettet?
C2PA er en velkommen initiativ, og på mange måter støtter den samme bevegelsen for innholdssikkerhet som OpenOrigins. De er en viktig del av innholdssikkerhets- og innholdssikkerhets-økosystemet. Som med alle sikkerhetsverktøy, finnes det ingen sølvpil.
For skapere og talent i industrier som film, musikk og spill, hva praktiske skritt bør de ta i dag for å beskytte seg mot uautorisert digital kopi?
Kunstnere i dag står overfor to distinkte risikoer: replikasjon av deres arbeid (slik som musikk, bilder eller skriving) og replikasjon av deres likhet, inkludert deres ansikt, stemme og kropp. Med minimalt innputt kan AI-systemer nå reprodusere begge med høy troverdighet. I praktisk forstand begynner beskyttelsen med å være bevisst på hva du deler på nettet, og å erkjenne at all innhold som publiseres kan bli skrapet og brukt i treningssammenlinger, ofte uten tydelig samtykke eller synlighet.
Den risikoen er nå en basisrealitet for å operere på nettet. Men den mer umiddelbare og kontrollerbare risikoen ligger ofte i kontraktene. Avtaler kunstnerne inngår med sine samarbeidspartnere, distributører eller plattformer kan inneholde klausuler som tillater AI-bruksområder som kloning, ofte uten meningsfullt bidrag i nedstrøms-inntekt.
For kunstnere gjør dette kontraktgjennomgangen kritisk. Å forstå hvordan ditt arbeid og din likhet kan bli brukt, lisensiert eller gjort om, er nå like viktig som den kreative prosessen selv. Mye av den nåværende debatten (over unions-, bransjeorganisasjoner og plattformer) sentrerer seg rundt å korrigere denne ubalansen og sikre at skapere beholder både kontroll og rettferdig kompensasjon.
Så to nøkkelråd: Vær forsiktig med hva du deler på nettet, og les dine kontrakter og søk etter AI-klausuler før du signerer.
Ser fremover tre til fem år, tror du vi kommer til å nå et punkt hvor hver enkelt digitalt innhold må bære verifiserbar proveniens, eller vil tillit forbli fragmentert over plattformer og jurisdiksjoner?
Jeg ville ønske å si ja, men realistisk, nei – ikke innen fem år. I teknologi, føles fem år langt; i forhold til å endre brukeratferd og vaner, er det veldig kort. De fleste forbrukerne er usannsynlig å basere sine beslutninger på om innhold kommer med autentisert proveniens. Plattformer tenderer til å følge brukeretterspørsel, optimalisert for engasjement snarere enn proveniens.
Dette kunne skifte hvis reguleringen griper inn. Vi ser allerede tidlige bevegelser i steder som California, hvor merking og modereringskrav begynner å dukke opp, men å skalerer dette globalt, vil ta tid – sannsynligvis nærmere en tiår enn fem år.
En annen områdeforandring er sektorspesifikk: industrier som journalistikk, finansielle tjenester, forsikring og helsevesen kan begynne å kreve proveniens og autentisering fordi tillit er grunnleggende for deres operasjoner.
Til slutt, kan forbrukerne ikke bry seg om proveniensinformasjon på kort sikt, men de vil sannsynligvis bry seg om innholdskvalitet og informasjonskvalitet. Hvis AI-generert innhold blir for homogent eller “fattig”, kan publikum begynne å verdsette menneskeskapt innhold mer eksplisitt. Dette kunne drive en segmentering av markedet, hvor noen plattformer prioriterer skala og AI-generert innhold, og andre kuraterer for autentisitet, proveniens og høy-tillit, menneskeledet materiale – men den skiftningen forblir en ukjent.
Takk for dine flotte svar, lesere som ønsker å lære mer, bør besøke OpenOrigins.












