Intervjuer
Dr Mathilde Pavis, Chef för juridik, OpenOrigins – Intervjuserie

Dr Mathilde Pavis, Chef för juridik på OpenOrigins, är en ledande expert inom AI-reglering och digital mediastyrning, specialiserad på deepfakes, syntetisk media och innehållsursprung. Hon rådgiver företag, regeringar och fackförbund om regelefterlevnad, licensiering och risk i generativ AI, och har arbetat med Microsoft och ElevenLabs på AI-policy och strategi. Hon har också rådgivit UNESCO om AI och immateriella rättigheter, och bidrar regelbundet med expertutlåtanden till brittiska beslutsfattare.
OpenOrigins utvecklar teknologi för att bekämpa desinformation och deepfakes genom att skapa verifierbara, oföränderliga register över digitalt innehåll. Plattformen fokuserar på att etablera tydligt ursprung, vilket möjliggör för media, skapare och plattformar att bevisa när och hur innehåll skapades, redigerades och distribuerades – en alltmer kritisk funktion när syntetisk media blir mer avancerad och svårare att upptäcka.
Du har rådgivit regeringar, globala institutioner som UNESCO och företag som Microsoft och ElevenLabs om AI-reglering. Vad ledde dig att fokusera specifikt på deepfakes, digitala kopior och syntetisk media, och hur påverkade den resan ditt beslut att grunda Replique?
Mitt arbete med deepfakes började inte med teknologin – det började med ett mycket äldre juridiskt puzzle. När jag började forska om immateriella rättigheter för min doktorsexamen 2013, slog jag mig av hur mycket mindre skydd som artister får jämfört med författare, kompositörer eller filmproducenter. I praktiken innebär det att dina ord eller din musik skyddas bättre i lag än din röst, ditt ansikte och din kropp. Den obalansen kändes konstig, och den fick mig att ställa en djupare fråga: hur värderar vi kulturellt och juridiskt arbetet med någon vars bidrag är deras ansikte, röst och kropp på skärmen?
Den frågan ledde mig till artisters rättigheter och data. Vid den tiden ansågs det vara ett nischområde med liten kommersiell relevans. Jag fick rådet att gå in i mer “lönsamma” områden som patenter eller traditionellt upphovsrätt. Antagandet var att frågor om en persons likhet eller röst i huvudsak hanterades informellt – genom branschnormer eller “gentlemannens avtal i Hollywood”. Men för mig signalerade den bristen på formellt skydd en lucka, inte en återvändsgränd för min forskning, så jag fortsatte med det.
Vad som har förändrats är att i dag är nästan alla artister. Våra liv medieras genom kameror – på telefoner, bärbara datorer, videokonferenser och sociala plattformar. Oavsett om det är för arbete eller personligt bruk, spelar människor ständigt in och delar versioner av sig själva. De juridiska frågorna som tidigare tillämpades främst på skådespelare eller musiker tillämpas nu på alla med en smartphone.
Deepfakes skapade inte dessa problem – de exponerade och accelererade dem. Forskningen jag gjorde från 2013 och framåt blev plötsligt brådskande. Runt 2017 och 2018 började utvecklingen inom neurala nätverk – särskilt från platser som MIT och UC Berkeley – demonstrera hur övertygande en persons ansikte, röst och kropp kunde digitalt manipuleras. Inom ett år blev den funktionen allmänt känd som “deepfakes”, och den fick först fart på ett skadligt sätt, särskilt genom icke-samtyckande sexuellt innehåll som riktade sig mot kvinnor och barn.
Först senare uppstod de kommersiella implikationerna, när de kreativa industrierna började anta syntetisk media. Då kom de kontraktmässiga och ekonomiska frågorna jag hade arbetat med till förgrunden. Nästan över en natt förvandlades vad som tidigare hade setts som ett i huvudsak teoretiskt eller doktrinärt rättsområde till ett högt praktiskt, kommersiellt signifikant och socialt brådskande område.
I sin kärna har den juridiska utmaningen inte förändrats: människor vill dela aspekter av sig själva, men behålla meningsfull kontroll. Befintliga ramar kämpar med den nyansen. De tenderar att behandla individer antingen som helt privata eller fullständigt offentliga – antingen skyddade eller rättmätiga. Men de flesta människor existerar någonstans däremellan. Den spänningen är nu central inte bara för professionella artister, utan för alla som deltar i digitalt liv.
Jag blev känd som någon som forskade och arbetade i det här området, vilket ledde mig att arbeta med regeringar som var intresserade av att skydda människor mot deepfakes, och företag som ville göra digitala kloningsprodukter säkra att använda, som ElevenLabs. På Replique tar jag med allt jag har lärt mig till människor och företag som vill använda digital kloning eller digital replikateknologi på ett ansvarsfullt och säkert sätt. Jag har i princip förvandlat min “blå himmel”-forskning till en rådgivningsverksamhet som tillhandahåller specialistjuridisk rådgivning till de kreativa industrierna.
Som Chef för juridik på OpenOrigins, ett företag som fokuserar på att etablera en oföränderlig post om innehållsursprung för att bekämpa deepfakes, hur ser du på ursprungs-baserade system som konkurrerar med eller ersätter traditionella deepfake-detektionsmetoder?
Att jämföra deepfake-detektionsverktyg kan snabbt bli en äpplen-och-päron-övning, eftersom deras effektivitet beror på sammanhang och syfte. Från ett politiskt perspektiv behöver vi en rad kompletterande verktyg – det finns ingen enda “bästa” lösning, och OpenOrigins är en del av det bredare ekosystemet. Där OpenOrigins teknologi sticker ut som en deepfake-detektionslösning är i situationer där en innehållsskapare eller informationsorganisation behöver bevisa äktheten i det innehåll de delar med partners, publik eller allmänheten.
Genom att tillhandahålla verifierbar ursprung och “kvitton” vid skapandepunkten erbjuder det ett starkt förebyggande genom att demonstrera att innehållet inte är en deepfake. Men denna metod är mindre användbar för vanliga internetanvändare som vill snabbt bedöma innehåll de möter online. I sådana fall beror detektering mer på sannolikhets- och innehållsanalysmetoder snarare än ursprungs-baserad verifiering. Vi behöver olika verktyg för olika behov, och vi måste acceptera att det inte finns någon silverkula mot deepfakes.
Från ett juridiskt perspektiv, vad är för närvarande den största luckan i hur jurisdiktioner hanterar samtycke och ägande i AI-genererat eller AI-replikerat innehåll?
Oj, hur lång tid har du? Svaren beror på vad vi menar med AI-genererat eller replikerat innehåll. Problemen varierar beroende på om du tittar på en AI-genererad bild av ett hus eller en katt. Eller digital återskapande av en persons ansikte eller röst. Låt oss hålla oss till ämnet deepfakes och digitala kopior, och svara på din fråga i sammanhanget “digital kloning”.
När det gäller samtycke är det centrala problemet att de flesta kontrakt – antingen anställningsavtal eller plattformsavtal – innehåller breda, otydliga klausuler som ger omfattande rättigheter över användarinnehåll. Dessa kan tolkas som en form av “bakdörrssamtycke” där att godkänna villkor kan anses innebära att man samtycker till användningar som kloning, även om de flesta människor starkt skulle ifrågasätta den tolkningen. Det skapar en betydande lucka mellan juridisk tolkning och användarförväntan, en som för närvarande gynnar företag medan regleringen ligger efter.
När det gäller ägande finns det inget tydligt juridiskt svar på vem som äger en digital klon, eftersom befintliga ramar som dataskydd, upphovsrätt och personlighetsrättigheter inte var utformade för denna teknologi. I dag skannas och klonas de flesta människor på jobbet, på begäran och med finansiering av en arbetsgivare eller kund. Och dessa enheter förväntar sig vanligtvis en hög grad av kontroll över denna tillgång, vilket är förståeligt men ofta problematiskt eftersom den tillgången är en digital imitation av ditt ansikte eller din röst, och kan få dig att säga saker du aldrig har sagt, eller göra saker du aldrig har gjort.
Frågan om “vem äger din klon?” är mycket viktig, men obesvarad i lag i dag.
Du har arbetat nära röstklonningsteknologier. Vilka är de mest missförstådda juridiska riskerna när det gäller syntetiska röster, både för företag och individer?
Det mest missförstådda problemet i juridisk regelefterlevnad är balansen mellan ett företags kommersiella intresse för att finansiera och utnyttja en digital klon, och den enskildes rätt till integritet och digital värdighet. Den spänningen ligger över flera juridiska regimer (primärt immateriella rättigheter, dataskydd och integritet) som aldrig var utformade för att fungera tillsammans och tolkar kloning på grundläggande olika sätt. Som ett resultat är det komplext och ofta oklart att översätta detta till fungerande, företagsvänliga metoder. Företag förbiser därför antingen nyckelrisker eller ådrar sig betydande kostnader för att navigera dem ordentligt. Det skapar ett perverst resultat där ansvarsfull regelefterlevnad blir den svårare och dyrare vägen, snarare än standarden.
Hur bör företag tänka på samtyckesarkitektur i AI-system, särskilt när det gäller likhet, identitet och träningsdata?
Företag bör utforma sina system kring tre kärnförmågor. Först behöver de säkra informerat, kontextuellt samtycke vid ombordstigning. Sekundärt måste de göra det enkelt för användare att återkalla det samtycket och ta bort några eller alla sina data, något som är tekniskt utmanande och ofta försummats, men är avgörande för regelefterlevnad med lagar som Storbritanniens och EU:s GDPR och liknande regimer i USA. Att upprätthålla samtycke över tid innebär att bygga system där återkallande är operativt smidigt och anpassat till affärsmodellen.
Samtycke måste vara granulärt. Och tredje, användare bör kunna hantera behörigheter på enskilda filnivå, uppdatera sin likhetsdata och förstå hur den används. Det kräver transparens och kontroll – verktyg som tillåter användare att övervaka, granska och moderera hur deras digitala kopior används. Den här nivån av flexibilitet är fortfarande ovanlig, men det är där den konkurrensmässiga fördelen alltmer ligger.
I din erfarenhet av att rådgiva både startups och regeringar, var är den största kopplingen mellan hur AI byggs och hur den regleras?
Kopplingen mellan hur AI byggs och hur den regleras beror på fundamentalt olika uppdrag. Regeringar reglerar i allmänhetens intresse, medan AI-företag (ofta riskkapitalfinansierade) i huvudsak drivs av tillväxt, intäkter och vinst. Dessa prioriteringar står inte alltid i konflikt, men de drar ofta i olika riktningar, med reglering som ses som en begränsning snarare än ett stöd.
Det skapar en strukturell spänning: reglerare och innovatörer verkar med olika incitament, värderingar och till och med språk. Det gör samstämmighet svår i praktiken, även om det inte är omöjligt. Vi börjar se en ny våg av techföretag som allierar sig mer med allmänna mål, men de förblir undantaget snarare än regeln – särskilt bland de som lyckas skala.
OpenOrigins fokuserar på att verifiera innehåll vid skapandepunkten med kryptografiskt ursprung. Hur kritiskt är detta ursprungs-först-tillvägagångssätt jämfört med efter-distributionsskydd?
Detta loopar tillbaka till mitt svar ovan. Att autentisera innehåll vid skapande, “upstream” är mycket mer effektivt än att försöka verifiera det vid distributionspunkten eller ens konsumtionspunkten, dvs. “nedströms”. Att autentisera innehåll vid skapande är som att spåra mat från den tidpunkt den odlas på gården, snarare än att försöka ta reda på det från vad som är på din tallrik. Om du vet var kycklingen odlades, hur den hanterades och hur den rörde sig genom leveranskedjan, kan du lita på vad du äter. Om du istället försöker gissa allt detta bara genom att titta på den färdiga rätten, litar du på gissningar. Det är samma sak med att skilja på mänsklig-skapad och AI-genererad innehåll online: ursprung vid källan ger dig verifierbar säkerhet, medan nedströmsdetektering är inneboende mer osäker och reaktiv.
Vilken roll ser du att standarder som C2PA spelar i medias framtid, och är de tillräckliga på egen hand för att återställa förtroende online?
C2PA är en välkommen initiativ, och på många sätt stöder den samma rörelse för innehållsautenticitet som OpenOrigins. De är en viktig del av innehållssäkerhets- och innehållsautenticitetsekosystemet. Som med alla cybersäkerhetsverktyg finns det ingen silverkula.
För skapare och talanger inom branscher som film, musik och spel, vilka praktiska steg bör de ta i dag för att skydda sig mot obehörig digital replikering?
Artister i dag möter två distinkta risker: replikeringen av deras arbete (såsom musik, bilder eller skrivande) och replikeringen av deras likhet, inklusive deras ansikte, röst och kropp. Med minimal inmatning kan AI-system nu reproducera båda med hög trohet. I praktiska termer börjar skyddet med att vara medveten om vad man delar online, och erkänna att allt innehåll som publiceras kan skrapas och användas i träningsdata, ofta utan tydligt samtycke eller synlighet.
Den risken är nu en baslinje-verklighet för att operera online. Men den mer omedelbara och kontrollerbara risken ligger ofta i kontrakt. Avtal som artister ingår med sina samarbetspartner, distributörer eller plattformar kan innehålla klausuler som tillåter AI-användning, återanvändning eller återförsäljning av innehåll för träningsändamål – ofta utan meningsfullt deltagande i nedströmsintäkter.
För artister gör det kontraktgranskning kritisk. Att förstå hur ditt arbete och din likhet kan användas, licensieras eller återanvändas är nu lika viktigt som den kreativa processen i sig. Mycket av den nuvarande debatten (inom fackförbund, branschorgan och plattformar) kretsar kring att korrigera denna obalans och säkerställa att skapare behåller både kontroll och rättvis ersättning.
Så två nyckelråd: var försiktig med vad du delar online, och läs dina kontrakt och leta efter AI-klausuler innan du skriver under.
Om tre till fem år, tror du att vi kommer att nå en punkt där varje bit digitalt innehåll måste ha verifierbart ursprung, eller kommer förtroende förbli fragmenterat över plattformar och jurisdiktioner?
Jag skulle vilja säga ja, men realistiskt, nej – inte inom fem år. I tech känns fem år långt; i termer av att förändra användarbeteende och vanor är det mycket kort. De flesta konsumenter är osannolika att basera sina beslut på om innehållet kommer med autentiserat ursprung. Plattformar tenderar att följa användarbegär, optimerar för engagemang snarare än ursprung.
Det kan förändras om regleringar ingriper. Vi ser redan tidiga drag i platser som Kalifornien, där märknings- och modereringskrav dyker upp, men att skala det globalt kommer att ta tid – troligen närmare ett decennium än fem år.
En annan förändringsområde är sektorspecifikt: branscher som journalistik, finans, försäkring och hälsovård kan börja kräva ursprung och autentisering eftersom förtroende är grundläggande för deras verksamhet.
Slutligen kan konsumenter inte bry sig om ursprungsinformation på kort sikt, men de kommer sannolikt att bry sig om innehållskvalitet och informationskvalitet. Om AI-genererat innehåll blir för homogent eller “tråkigt” kan publik börja värdera mänsklig-skapad innehåll mer explicit. Det kan driva en segmentering av marknaden, där vissa plattformar prioriterar skala och AI-genererat innehåll, och andra kuraterar för autenticitet, ursprung och högt förtroende, mänskligt ledd material – men den förändringen förblir okänd.
Tack för dina utmärkta svar, läsare som vill lära sig mer bör besöka OpenOrigins.












