Connect with us

Dr. Mathilde Pavis, juridisk leder, OpenOrigins – Interviewserie

Interviews

Dr. Mathilde Pavis, juridisk leder, OpenOrigins – Interviewserie

mm

Dr. Mathilde Pavis, juridisk leder hos OpenOrigins, er en førende ekspert i AI-regulering og digital medieledelse, med speciale i deepfakes, syntetisk medie og indholdshærkomst. Hun rådgiver virksomheder, regeringer og fagforeninger om overholdelse, licensering og risiko i generativ AI, og har arbejdet med Microsoft og ElevenLabs om AI-politik og strategi. Hun har også rådgivet UNESCO om AI og immaterielle rettigheder, og bidrager regelmæssigt med ekspertvidnesbyrd til britiske beslutningstager.

OpenOrigins udvikler teknologi til at bekæmpe misinformationskampagner og deepfakes ved at oprette verificerbare, uændrelige optegnelser over digitalt indhold. Deres platform fokuserer på at etablere klar hærkomst, så medier, skabere og platforme kan bevise, hvornår og hvordan indholdet blev skabt, redigeret og distribueret – en stadig mere kritisk funktion, da syntetisk medie bliver mere avanceret og sværere at opdage.

Hvad førte til, at du fokuserede specifikt på deepfakes, digitale kopier og syntetisk medie, og hvordan formede den rejse din beslutning om at grundlægge Replique?

Mit arbejde med deepfakes begyndte ikke med teknologien – det begyndte med et meget ældre juridisk puslespil. Da jeg startede med at forskere i immaterielle rettigheder til min ph.d. i 2013, blev jeg slået af, hvor lidt beskyttelse udførere får i forhold til forfattere, komponister eller filminstruktører. I praksis betyder det, at dine ord eller din musik ender med at blive bedre beskyttet i loven end din stemme, dit ansigt og din krop. Denne ubalance føltes underlig, og det fik mig til at stille et dybere spørgsmål: Hvordan værderer vi kulturelt og juridisk arbejdet med en person, hvis bidrag er deres ansigt, stemme og krop på skærmen?

Det spørgsmål førte mig ind i udførernes rettigheder og data. På det tidspunkt blev det betragtet som et nicheområde med lille kommerciel relevans. Jeg blev aktivt rådet til at gå over i mere “lucrative” områder som patenter eller traditionel ophavsret. Antagelsen var, at spørgsmål om en persons lighed eller stemme i hovedsagen blev håndteret uformelt – gennem branchenormer eller “gentlemens aftaler i Hollywood”. Men for mig signalerede manglen på formel beskyttelse en åbning, ikke en død ende for min forskning, så jeg fortsatte.

Hvad der er ændret, er, at næsten alle i dag er udførere. Vores liv er formidlet gennem kameraer – på telefoner, bærbare computere, videokald og sociale platforme. Uanset om det er til arbejde eller personligt brug, optager og deler mennesker konstant versioner af sig selv. De juridiske spørgsmål, der tidligere kun gjaldt skuespillere eller musikere, gælder nu for alle med en smartphone.

Deepfakes skabte ikke disse problemer – de afslørede og accelererede dem. Den forskning, jeg havde lavet fra 2013 og frem, blev pludselig presserende. Omkring 2017 og 2018 begyndte udviklingen inden for neurale netværk – især fra steder som MIT og UC Berkeley – at demonstrere, hvor overbevisende en persons ansigt, stemme og krop kunne digitalt manipuleres. Inden for et år blev denne kapacitet bredt kendt som “deepfakes”, og det fik først fodfæste på en skadelig måde, især gennem ikke-samtykkende seksuelt indhold, der var rettet mod kvinder og børn.

Først senere opstod de kommercielle implikationer, da den kreative industri begyndte at antage syntetisk medie. Det var da, at de kontraktmæssige og økonomiske spørgsmål, jeg havde arbejdet med, kom til syne. Næsten over natten blev, hvad der tidligere var set som et overvejende teoretisk eller doktrinært retsområde, et højst praktisk, kommercielt signifikant og socialt presserende felt.

I sin kerne har den juridiske udfordring ikke ændret sig: Mennesker vil dele aspekter af sig selv, men stadig beholde meningsfuld kontrol. Eksisterende rammer kæmper med den nuance. De tenderer til at behandle individer som enten fuldstændig private eller fuldstændig offentlige – enten beskyttet eller fair game. Men de fleste mennesker eksisterer et sted imellem. Den spænding er nu central, ikke kun for professionelle udførere, men for alle, der deltager i digitalt liv.

Jeg blev kendt som en person, der forskede og arbejdede i dette område, hvilket førte til, at jeg arbejdede med regeringer, der var interesseret i at beskytte mennesker mod deepfakes, og virksomheder, der ønskede at gøre digitale kloningsprodukter sikre at bruge, som ElevenLabs. Hos Replique bringer jeg alt, hvad jeg har lært, til mennesker og virksomheder, der ønsker at bruge digital kloning eller digital replica-teknologi ansvarligt og sikkert. Jeg har grundlæggende omdannet min “blue sky”-forskning til en rådgivningsvirksomhed, der bringer specialiseret juridisk rådgivning til den kreative industri.

Som juridisk leder i OpenOrigins, en virksomhed, der fokuserer på at etablere en uændrelig optegnelse over indholdshærkomst for at bekæmpe deepfakes, hvordan ser du proveniensbaserede systemer konkurrere med eller erstatte traditionelle deepfake-detektionsmetoder?

At sammenligne deepfake-detektionsværktøjer kan hurtigt blive en æble-til-æbler-øvelse, fordi deres effektivitet afhænger af kontekst og formål. Set fra en politisk synsvinkel har vi brug for en række komplementære værktøjer – der er ingen enkelt “bedst” løsning, og OpenOrigins er kun en del af det bredere økosystem. Hvor OpenOrigins’ teknologi står ud som en deepfake-detektionsløsning, er i situationer, hvor en indholdsskaber eller en informationsorganisation behøver at bevise ægthed af det indhold, de deler med partnere, publikum eller offentligheden.

Ved at give verificerbar proveniens og “kvitteringer” ved skabelsestidspunktet tilbyder det en stærk form for forebyggelse ved at demonstrere, at indholdet ikke er en deepfake. Men denne tilgang er mindre nyttig for almindelige internetbrugere, der ønsker at hurtigt vurdere indhold, de møder online. I disse tilfælde afhænger detektion mere af sandsynlighedsbaserede og indholdsanalysemåde end proveniensbaseret verificering. Vi har brug for forskellige værktøjer til forskellige behov, og vi må acceptere, at der ikke er en enkelt løsning mod deepfakes.

Set fra et juridisk synspunkt, hvad er i øjeblikket den største åbning i, hvordan jurisdiktioner håndterer samtykke og ejerskab i AI-genereret eller AI-reproduceret indhold?

Øv, hvor lang tid har du? Svaret afhænger af, hvad vi mener med AI-genereret eller reproduceret indhold. Problemerne varierer, afhængigt af om vi ser på et AI-genereret billede af et hus eller en kat. Eller en digital genskabelse af en persons ansigt eller deres stemme. Lad os holde os til emnet om deepfakes og digital kloning, og besvare dit spørgsmål i konteksten af “digital kloning”.

Vedrørende samtykke er det centrale problem, at de fleste kontrakter – enten ansættelsesaftaler eller platformsvilkår – indeholder brede, vage klausuler, der giver omfattende rettigheder over brugerindhold. Disse kan fortolkes som en form for “bagdør-samtykke”, hvor accept af vilkår kan opfattes som samtykke til brug som kloning, selvom de fleste mennesker stærkt ville bestride denne fortolkning. Dette skaber en betydelig åbning mellem juridisk fortolkning og brugerforventning, en åbning, der i øjeblikket gavner virksomheder, mens reguleringen er tilbage.

Vedrørende ejerskab er der ingen klar juridisk løsning på, hvem der ejer en digital klon, fordi eksisterende rammer som dataværn, ophavsret og personlighedsrettigheder ikke var designet til denne teknologi. I dag bliver de fleste mennesker scannet og klonet på arbejdspladsen, på opfordring og med finansiering fra en arbejdsgiver eller en kunde. Og disse enheder forventer som regel en høj grad af kontrol over denne ejendom, hvilket er forståeligt, men ofte problematisk, fordi denne ejendom er en digital imitation af dit ansigt eller din stemme, og kan få dig til at sige ting, du aldrig har sagt, eller gøre ting, du aldrig har gjort.

Spørgsmålet om “hvem ejer din klon?” er meget vigtigt, men ubesvaret i loven i dag.

Hvad er de mest misforståede juridiske risici, når det kommer til syntetiske stemmer, både for virksomheder og individer?

Det mest misforståede problem i juridisk overholdelse er balancen mellem en virksomheds kommercielle interesse i at finansiere og udnytte en digital klon, og den enkeltes ret til privatliv og digital værdighed. Denne spænding ligger på tværs af flere juridiske regimer (primært immaterielle rettigheder, dataværn og privatliv), der aldrig var designet til at fungere sammen og fortolker kloning på fundamentalt forskellige måder. Som følge heraf er det komplekst og ofte uklart at oversætte dette til brugbare, forretningsvenlige praksis. Virksomheder overseer derfor ofte nøglepunkter eller pådrager sig betydelige omkostninger for at navigere dem ordentligt. Det skaber en pervers udgang, hvor ansvarlig overholdelse bliver den sværere og mere dyre vej, snarere end standarden.

Hvordan bør virksomheder tænke om samtykkearkitektur i AI-systemer, især når det handler om lighed, identitet og træningsdata?

Virksomheder bør designe deres systemer omkring tre kernefærdigheder. Først skal de sikre informeret, kontekstuel samtykke ved onboarding. Anden skal de gøre det let for brugere at trække samtykke tilbage og slette nogen eller alle deres data, noget, der er teknisk udfordrende og ofte overset, men afgørende for overholdelse af love som den britiske og EU’s GDPR og lignende regimer i USA. Vedligeholdelse af samtykke over tid kræver bygning af systemer, hvor tilbagetrækning er operativt glat og i overensstemmelse med forretningsmodellen.

Samtykke skal være detaljeret. Og tredje skal brugere kunne styre tilladelser på niveauet for enkeltfiler, opdatere deres lighedsdata og forstå, hvordan det bruges. Det kræver gennemsigtighed og kontrol – værktøjer, der tillader brugere at overvåge, gennemgå og moderere, hvordan deres digitale kloner anvendes. Denne niveau af fleksibilitet er stadig sjælden, men det er, hvor den konkurrerende fordel ligger.

I din erfaring med at rådgive både startups og regeringer, hvor er den største åbning mellem, hvordan AI bliver bygget, og hvordan det bliver reguleret?

Den største åbning mellem, hvordan AI bliver bygget, og hvordan det bliver reguleret, kommer ned til fundamentalt forskellige missioner. Regeringer regulerer i det offentlige interesse, mens AI-virksomheder (ofte venture-finansierede) primært drives af vækst, omsætning og profit. Disse prioriteter er ikke altid i konflikt, men de trækker ofte i forskellige retninger, med regulering set som en begrænsning snarere end en støtte.

Dette skaber en strukturel spænding: Regulatorer og innovatører opererer med forskellige incitamenter, værdier og endda sprog. Det gør alignment svært i praksis, selv om det ikke er umuligt. Vi begynder at se en ny bølge af teknologivirksomheder, der aligner mere tæt med offentlige interesse-mål, men de forbliver undtagelsen snarere end reglen – især blandt dem, der succesfuldt skalerer.

OpenOrigins fokuserer på at verificere indhold ved skabelsestidspunktet ved hjælp af kryptografisk proveniens. Hvor kritisk er denne origin-først-tilgang i forhold til sikkerhedsforanstaltninger efter distribution?

Dette løber tilbage til mit svar ovenfor. At autentificere indhold ved skabelse, “upstream”, er langt mere effektivt end at forsøge at verificere det ved distributions- eller forbrugstidspunktet, dvs. “downstream”. At autentificere indhold ved skabelse er som at spore mad fra det øjeblik, det dyrkes på gården, snarere end at forsøge at arbejde det ud fra, hvad der er på din tallerken. Hvis du ved, hvor kycklingen blev opfostret, hvordan den blev behandlet, og hvordan den bevægede sig gennem forsyningskæden, kan du stole på, hvad du spiser. Hvis du i stedet forsøger at slutte alt dette af, hvad der er på din færdige ret, er du afhængig af gætteri. Det er det samme med at skelne mellem menneskeskabt og AI-genereret indhold online: Proveniens ved kilden giver dig verificerbar sikkerhed, mens downstream-detektion er mere usikker og reaktiv.

Hvad rol ser du for standarder som C2PA i fremtiden for medier, og er de tilstrækkelige i sig selv til at genskabe tillid online?

C2PA er en velkommen initiativ, og på mange måder støtter det samme bevægelse for indholdssikkerhed og indholdssærlighed som OpenOrigins. De er en vigtig del af indholdssikkerheds- og indholdssærlighedsøkosystemet. Som med ethvert sikkerhedsværktøj er der ingen enkelt løsning.

For skabere og talenter i brancher som film, musik og spil, hvad praktiske skridt bør de tage i dag for at beskytte sig selv mod uautoriseret digital replication?

Kunstnere i dag står over for to distinkte risici: Replication af deres arbejde (såsom musik, billeder eller skrift) og replication af deres lighed, herunder deres ansigt, stemme og krop. Med minimalt input kan AI-systemer nu reproducere begge med en høj grad af troværdighed. I praktisk forstand begynder beskyttelse med at være bevidst om, hvad man deler online, og erkende, at ethvert indhold, der offentliggøres, kan blive skrabet og brugt i træningsdata, ofte uden klart samtykke eller synlighed.

Den risiko er nu en baseline-reality for at operere online. Men den mere umiddelbare og kontrollerbare risiko ligger ofte i kontrakter. Aftaler, kunstnere indgår med deres samarbejdspartnere, distributører eller platforme, kan indeholde klausuler, der tillader AI-brug, genbrug eller salg af indhold til træningsformål – ofte uden meningsfuld deltagelse i efterfølgende omsætning.

For kunstnere gør dette kontraktgennemgang kritisk. At forstå, hvordan deres arbejde og lighed kan bruges, licenseres eller genskabes, er nu lige så vigtigt som den kreative proces i sig selv. Meget af den nuværende debat (over fagforeninger, brancher og platforme) handler om at korrigere denne ubalance og sikre, at skabere beholder både kontrol og fair kompensation.

Så to nøglepunkter for råd: Vær omhyggelig med, hvad du deler online, og læs dine kontrakter og søg efter AI-klausuler, før du underskriver.

Set fremad på tre til fem år, tror du, vi vil nå et punkt, hvor hver enkelt stykke digitalt indhold må bære verificerbar proveniens, eller vil tillid forblive fragmenteret på tværs af platforme og jurisdiktioner?

Jeg ville ønske at sige ja, men realistisk, nej – ikke inden for fem år. I teknologi føles fem år langt; i forhold til at ændre brugeradfærd og vaner er det meget kort. De fleste forbrugere er usandsynligt at basere deres beslutninger på, om indhold kommer med autentificeret proveniens. Platforme tenderer til at følge brugerkrav, optimerer til engagement snarere end proveniens.

Det kunne ændre sig, hvis reguleringen griber ind. Vi ser allerede tidlige bevægelser på steder som Californien, hvor mærknings- og modereringskrav dukker op, men at skale det globalt vil tage tid – sandsynligvis tættere på en årti end fem år.

Et andet område for ændring er sektorspecifikt: Brancher som journalistik, finans, forsikring og sundhedsvesen kan begynde at kræve proveniens og autentificering, fordi tillid er fundamental for deres operationer.

Sidst, men ikke mindst, kan forbrugere ikke bekymre sig om proveniensoplysninger på kort sigt, men de vil sandsynligvis bekymre sig om indholdskvalitet og informationskvalitet. Hvis AI-genereret indhold bliver for ensartet eller “fladt”, kan publikum begynde at værdsætte menneskeskabt indhold mere eksplicit. Det kunne drive en segmentering af markedet, hvor nogle platforme prioriterer skala og AI-genereret indhold, og andre kuraterer for autentificitet, proveniens og høj-tillid, menneskeledet materiale – men den ændring forbliver en ukendt.

Tak for dine store svar, læsere, der ønsker at lære mere, skal besøge OpenOrigins.

Antoine er en visionær leder og medstifter af Unite.AI, drevet af en urokkelig passion for at forme og fremme fremtiden for AI og robotteknologi. En serieiværksætter, han tror, at AI vil være lige så omvæltende for samfundet som elektricitet, og bliver ofte fanget i at tale begejstret om potentialet for omvæltende teknologier og AGI.

Som en futurist, er han dedikeret til at udforske, hvordan disse innovationer vil forme vores verden. Derudover er han grundlægger af Securities.io, en platform, der fokuserer på at investere i skærende teknologier, der gendefinerer fremtiden og omformer hele sektorer.