Connect with us

Dr. Mathilde Pavis, Head of Legal, OpenOrigins – Interview Series

Interviews

Dr. Mathilde Pavis, Head of Legal, OpenOrigins – Interview Series

mm

Dr. Mathilde Pavis, Head of Legal at OpenOrigins, is een toonaangevende expert in AI-regulering en digitale media-governance, gespecialiseerd in deepfakes, synthetische media en content-provenance. Ze adviseert bedrijven, overheden en vakbonden over compliance, licenties en risico’s in generatieve AI, en heeft gewerkt met Microsoft en ElevenLabs aan AI-beleid en -strategie. Ze heeft ook UNESCO geadviseerd over AI en intellectueel eigendom, en levert regelmatig deskundigenbewijs aan Britse beleidsmakers.

OpenOrigins ontwikkelt technologie om desinformatie en deepfakes te bestrijden door verifieerbare, onveranderlijke records van digitale content te creëren. Het platform richt zich op het vaststellen van duidelijke provenance, waardoor media, makers en platforms kunnen aantonen wanneer en hoe content is gemaakt, bewerkt en gedistribueerd – een steeds kritieker wordende capaciteit nu synthetische media geavanceerder en moeilijker te detecteren wordt.

U heeft overheden, globale instellingen zoals UNESCO en bedrijven als Microsoft en ElevenLabs geadviseerd over AI-regulering. Wat heeft u ertoe geleid om u specifiek te richten op deepfakes, digitale replica’s en synthetische media, en hoe heeft die reis uw beslissing beïnvloed om Replique op te richten?

Mijn werk aan deepfakes begon niet met de technologie – het begon met een veel oudere juridische puzzel. Toen ik in 2013 begon met onderzoek naar intellectueel eigendom voor mijn PhD, werd ik getroffen door hoeveel minder bescherming uitvoerders ontvangen in vergelijking met auteurs, componisten of filmmakers. In de praktijk betekent dit dat uw woorden of uw muziek beter beschermd zijn in de wet dan uw stem, uw gezicht en uw lichaam. Die onevenwichtigheid voelde vreemd aan, en het zette me ertoe aan om een diepere vraag te stellen: hoe waarderen we cultureel en juridisch de bijdrage van iemand wiens bijdrage zijn gezicht, stem en lichaam op het scherm is?

Die vraag leidde me naar de rechten van uitvoerders en gegevens. Op dat moment werd het beschouwd als een niche-gebied met weinig commerciële relevantie. Ik werd actief geadviseerd om over te stappen naar meer “lucrative” gebieden zoals octrooien of traditioneel auteursrecht. De veronderstelling was dat kwesties rond iemands gelijkenis of stem grotendeels informeel werden beheerd – door middel van industrienormen of “gentlemen’s agreements in Hollywood”. Maar voor mij gaf die gebrek aan formele bescherming aanleiding tot een lacune, niet een doodlopende weg voor mijn onderzoek, dus ik bleef het volgen.

Wat veranderd is, is dat tegenwoordig bijna iedereen een uitvoerder is. Onze levens worden gemodereerd door camera’s – op telefoons, laptops, videoconferencing en sociale platforms. Of het nu voor werk of persoonlijk gebruik is, mensen nemen constant versies van zichzelf op en delen ze. De juridische vragen die eerder voornamelijk van toepassing waren op acteurs of muzikanten, zijn nu van toepassing op iedereen met een smartphone.

Deepfakes hebben deze kwesties niet gecreëerd – ze hebben ze blootgelegd en versneld. Het onderzoek dat ik vanaf 2013 deed, werd plotseling dringend. Rond 2017 en 2018 begonnen ontwikkelingen in neurale netwerken – met name uit plaatsen als MIT en UC Berkeley – te demonstreren hoe overtuigend een persoon zijn gezicht, stem en lichaam digitaal gemanipuleerd kon worden. Binnen een jaar werd die capaciteit algemeen bekend als “deepfakes” en kreeg het voor het eerst tractie in diep schadelijke vormen, vooral via niet-toegestane seksuele content gericht op vrouwen en kinderen.

Pas later kwamen de commerciële implicaties naar voren, toen de creatieve industrie synthetische media begon te adopteren. Dat is wanneer de contractuele en economische vragen waar ik aan werkte, naar voren kwamen. Bijna overeenkomstig werd wat eerder een grotendeels theoretisch of doctrinair rechtsgebied werd beschouwd, een zeer praktisch, commercieel significant en sociaal urgent veld.

In wezen is de juridische uitdaging niet veranderd: mensen willen aspecten van zichzelf delen, maar nog steeds zinvolle controle behouden. Bestaande kaders worstelen met die nuance. Ze hebben de neiging om individuen te behandelen als volledig privé of volledig openbaar – ofwel beschermd ofwel eerlijk spel. Maar de meeste mensen bestaan ergens daartussenin. Die spanning is nu centraal, niet alleen voor professionele uitvoerders, maar voor iedereen die deelneemt aan digitaal leven.

Ik werd bekend als iemand die in dit gebied onderzoek deed en werkte, wat me ertoe leidde om te werken met overheden die geïnteresseerd waren in het beschermen van mensen tegen deepfakes, en bedrijven die digitale kloonproducten veilig wilden maken voor gebruik, zoals ElevenLabs. Bij Replique breng ik alles wat ik heb geleerd bij mensen en bedrijven die digitale klonen of digitale replica-technologie verantwoordelijk en veilig willen gebruiken. Ik heb mijn “blue sky”-onderzoek eigenlijk omgezet in een adviesbedrijf dat gespecialiseerde juridische adviezen biedt aan de creatieve industrie.

Als Head of Legal at OpenOrigins, een bedrijf dat zich richt op het vaststellen van een onveranderlijke record van content-provenance om deepfakes te bestrijden, hoe ziet u provenance-gebaseerde systemen concurreren met of vervangen van traditionele deepfake-detectiebenaderingen?

Het vergelijken van deepfake-detectiehulpmiddelen kan snel een appels-en-peren-oefening worden, omdat hun effectiviteit afhankelijk is van context en doel. Vanuit een beleidsperspectief hebben we een reeks aanvullende hulpmiddelen nodig – er is geen enkele “beste” oplossing, en Open Origins is een onderdeel van dat bredere ecosysteem. Waar de technologie van OpenOrigins zich onderscheidt als een deepfake-detectieoplossing, is in situaties waarin een content-maker of informatie-organisatie de authenticiteit van de content die ze delen met partners, publiek of het publiek, moet aantonen.

Door verifieerbare provenance en “ontvangers” te bieden op het moment van creatie, biedt het een sterke vorm van preventie door aan te tonen dat content geen deepfake is. Deze aanpak is echter minder nuttig voor alledaagse internetgebruikers die online content snel willen beoordelen. In die gevallen is detectie meer afhankelijk van probabilistische en content-analysemethode dan van provenance-gebaseerde verificatie. We hebben verschillende hulpmiddelen nodig voor verschillende behoeften, en we moeten accepteren dat er geen zilveren kogel tegen deepfakes is.

Vanuit een juridisch oogpunt, wat is momenteel de grootste lacune in hoe rechtsgebieden omgaan met toestemming en eigendom in AI-gegenereerde of AI-gekopieerde content?

Oef, hoeveel tijd hebt u? De antwoorden hangen af van wat we bedoelen met AI-gegenereerde of AI-gekopieerde content. De kwesties variëren of u kijkt naar een AI-gegenereerd beeld van een huis of een kat. Of digitale recreatie van een persoon zijn gezicht of zijn stem. Laten we ons tot het onderwerp van deepfakes en digitale replica beperken en uw vraag beantwoorden in de context van ‘digitale kloning’.

Wat toestemming betreft, is het kernprobleem dat de meeste contracten – of het nu arbeidsovereenkomsten of platformvoorwaarden zijn – brede, vage clausules bevatten die uitgebreide rechten over gebruikerscontent verlenen. Deze kunnen worden geïnterpreteerd als een vorm van “achterdeur-toestemming” waarbij het akkoord met de voorwaarden kan worden geïnterpreteerd als toestemming voor gebruiken zoals klonen, zelfs als de meeste mensen die interpretatie sterk zouden betwisten. Dit creëert een significante lacune tussen juridische interpretatie en gebruikersverwachting, een die momenteel bedrijven bevoordeelt, terwijl regulering achterblijft.

Wat eigendom betreft, is er geen duidelijk juridisch antwoord op wie een digitale kloon bezit, omdat bestaande kaders zoals gegevensbescherming, auteursrecht en persoonlijkheidsrechten niet zijn ontworpen voor deze technologie. Vandaag de dag worden de meeste mensen gescand en gekloond op het werk, op verzoek en met de financiering van een werkgever of een cliënt. En die entiteiten verwachten doorgaans een hoge mate van controle over die asset, wat begrijpelijk is, maar vaak problematisch is, omdat die asset een digitale imitatie is van uw gezicht of uw stem, en u dingen kan laten zeggen die u nooit hebt gezegd, of dingen kan laten doen die u nooit hebt gedaan.

De vraag “wie bezit uw kloon?” is heel belangrijk, maar onbeantwoord in de wet van vandaag.

U heeft nauw samengewerkt met stemkloon-technologieën. Wat zijn de meest misverstane juridische risico’s als het gaat om synthetische stemmen, zowel voor bedrijven als voor individuen?

Het meest misverstane probleem in juridische compliance is de balans tussen het commerciële belang van een bedrijf in het financieren en exploiteren van een digitale kloon, en het recht van een individu op privacy en digitale waardigheid. Deze spanning zit over meerdere juridische regimes (voornamelijk intellectueel eigendom, gegevensbescherming en privacy) die nooit zijn ontworpen om samen te werken en interpreteren kloning op fundamenteel verschillende manieren. Als gevolg daarvan is het vertalen hiervan in werkbare, bedrijfsvriendelijke praktijken complex en vaak onduidelijk. Bedrijven negeren daarom ofwel cruciale risico’s, ofwel lopen ze aanzienlijke kosten om ze correct te navigeren. Dat creëert een pervers resultaat waarbij verantwoorde compliance de moeilijkere, duurdere route wordt, in plaats van de standaard.

Hoe moeten bedrijven nadenken over toestemming-architectuur in AI-systemen, vooral bij het omgaan met gelijkenis, identiteit en trainingsgegevens?

Bedrijven moeten hun systemen ontwerpen rond drie kerncapaciteiten. Ten eerste moeten ze geïnformeerde, contextuele toestemming op het moment van inschrijving veiligstellen. Ten tweede moeten ze het voor gebruikers gemakkelijk maken om die toestemming in te trekken en sommige of alle hun gegevens te verwijderen, iets dat technisch uitdagend is en vaak over het hoofd wordt gezien, maar essentieel is voor compliance met wetten zoals de UK en EU GDPR en soortgelijke regimes in de VS. Toestemming behouden in de loop van de tijd betekent het bouwen van systemen waarbij intrekking operationeel soepel en afgestemd is op het bedrijfsmodel.

Toestemming moet granulair zijn. En ten derde moeten gebruikers in staat zijn om machtigingen te beheren op het niveau van individuele bestanden, hun gelijkenisgegevens bij te werken en te begrijpen hoe ze worden gebruikt. Dat vereist transparantie en controle – hulpmiddelen die gebruikers in staat stellen hun digitale klonen te controleren, te bekijken en te modereren. Dit niveau van flexibiliteit is nog zeldzaam, maar het ligt waar de concurrentievoordelen steeds vaker liggen.

Uit uw ervaring in het adviseren van zowel startups als overheden, waar ligt de grootste disconnectie tussen hoe AI wordt gebouwd en hoe het wordt gereguleerd?

De disconnectie tussen hoe AI wordt gebouwd en hoe het wordt gereguleerd komt neer op fundamenteel verschillende missies. Overheden reguleren in het publieke belang, terwijl AI-bedrijven (vaak door venture capital gesteund) voornamelijk worden gedreven door groei, omzet en winst. Die prioriteiten conflicteren niet altijd, maar trekken vaak in verschillende richtingen, met regulering als een beperking in plaats van een ondersteuning.

Dit creëert een structurele spanning: regulators en innovators opereren met verschillende incentives, waarden en zelfs talen. Dat maakt afstemming in de praktijk moeilijk, zelfs als het niet onmogelijk is. We beginnen een nieuwe golf van technologiebedrijven te zien die zich meer in lijn brengen met publieke belangen, maar ze blijven de uitzondering in plaats van de regel – vooral onder die welke met succes schalen.

OpenOrigins richt zich op het verifiëren van content op het moment van creatie met behulp van cryptografische provenance. Hoe kritiek is deze origin-first-aanpak in vergelijking met post-distributiebeveiligingsmaatregelen?

Dit sluit aan bij mijn antwoord hierboven. Het authentificeren van content bij creatie, ‘upstream’, is veel effectiever dan het proberen te verifiëren bij distributie of zelfs consumptie, d.w.z. ‘downstream’. Het authentificeren van content bij creatie is als het traceren van voedsel vanaf het moment dat het op de boerderij wordt geteeld, in plaats van proberen uit te zoeken wat er op uw bord ligt. Als u weet waar de kip is gefokt, hoe het is behandeld en hoe het door de toeleveringsketen is gegaan, kunt u vertrouwen wat u eet. Als u daarentegen probeert al die informatie af te leiden uit alleen het afgemaakte gerecht, bent u afhankelijk van giswerk. Het is hetzelfde met onderscheid maken tussen door de mens gegenereerde en AI-gegenereerde content online: provenance bij de bron geeft u verifieerbare zekerheid, terwijl downstream-detectie inherent onzekerder en reactiever is.

Wat is de rol die u ziet voor standaarden zoals C2PA in de toekomst van media, en zijn ze op zichzelf voldoende om vertrouwen online te herstellen?

C2PA is een welkome initiatief, en op veel manieren ondersteunt het dezelfde beweging voor content-authenticiteit als OpenOrigins. Ze zijn een belangrijk onderdeel van het ecosysteem voor content-veiligheid en content-authenticiteit. Zoals bij elk cybersecurity-hulpmiddel is er geen zilveren kogel.

Wat zijn de praktische stappen die creators en talent in industrieën zoals film, muziek en gaming vandaag moeten nemen om zich te beschermen tegen ongeautoriseerde digitale replicatie?

Kunstenaars vandaag het hoofd bieden aan twee verschillende risico’s: de replicatie van hun werk (zoals muziek, beelden of schrijven) en de replicatie van hun gelijkenis, inclusief hun gezicht, stem en lichaam. Met minimale input kunnen AI-systemen nu beide reproduceren met een hoge mate van geloofwaardigheid. In praktische termen begint bescherming met het doelbewust zijn over wat u online deelt, erkennend dat elke content die online wordt geplaatst, kan worden gescraped en gebruikt in trainingsdatasets, vaak zonder duidelijke toestemming of zichtbaarheid.

Dat risico is nu een basisrealiteit van online opereren. Maar het meest directe en beheersbare risico ligt vaak in contracten. Overeenkomsten die kunstenaars maken met hun medewerkers, distributeurs of platforms kunnen clausules bevatten die AI-gebruik, hergebruik of doorverkoop van content voor trainingsdoeleinden toestaan – vaak zonder significante deelname aan downstream-omzet.

Voor kunstenaars maakt dit contractuele controle kritiek. Het begrijpen van hoe uw werk en gelijkenis kunnen worden gebruikt, gelicentieerd of hergebruikt, is nu net zo belangrijk als het creatieve proces zelf. Veel van het huidige debat (over unions, industrie-organisaties en platforms) draait om het corrigeren van deze onevenwichtigheid en ervoor zorgen dat creators zowel controle als eerlijke compensatie behouden.

Dus twee belangrijke stukken advies: wees voorzichtig met wat u online deelt, en lees uw contracten en zoek naar AI-clausules voordat u ondertekent.

Kijkend naar de toekomst, drie tot vijf jaar, gelooft u dat we een punt zullen bereiken waarop elke stuk digitale content verifieerbare provenance moet hebben, of zal vertrouwen gefragmenteerd blijven over platforms en rechtsgebieden?

Ik zou willen zeggen ja, maar realistisch gezien, nee – niet binnen vijf jaar. In tech voelt vijf jaar lang; in termen van het veranderen van gebruikersgedrag en -gewoonten is het zeer kort. De meeste consumenten zijn onwaarschijnlijk om hun beslissingen te baseren op of content verifieerbare provenance heeft. Platforms volgen gebruikersvraag, optimaliserend voor betrokkenheid in plaats van provenance.

Dat kan veranderen als regulering tussenbeide komt. We zien al vroege bewegingen in plaatsen zoals Californië, waar etiketterings- en moderatievereisten naar voren komen, maar het opschalen hiervan wereldwijd zal tijd kosten – waarschijnlijk dichter bij een decennium dan vijf jaar.

Een ander gebied van verandering is sector-specifiek: industrieën zoals journalistiek, financiën, verzekeringen en gezondheidszorg kunnen beginnen met het vereisen van provenance en authenticatie, omdat vertrouwen fundamenteel is voor hun operaties.

Tot slot zullen consumenten zich misschien niet druk maken over provenance-informatie op korte termijn, maar ze zullen waarschijnlijk geïnteresseerd zijn in de kwaliteit van de content en de kwaliteit van de informatie. Als AI-gegenereerde content te homogeen of “saai” wordt, kunnen audiences beginnen om menselijk gegenereerde content expliciet te waarderen. Dat kan leiden tot een segmentatie van de markt, met sommige platforms die prioriteit geven aan schaal en AI-gegenereerde content, en anderen die cureren voor authenticiteit, provenance en high-trust, menselijk geleide materiaal – maar die verschuiving blijft onbekend.

Bedankt voor uw geweldige antwoorden, lezers die meer willen leren, moeten OpenOrigins bezoeken.

Antoine is een visionaire leider en oprichtend partner van Unite.AI, gedreven door een onwankelbare passie voor het vormgeven en promoten van de toekomst van AI en robotica. Een seriële ondernemer, hij gelooft dat AI net zo disruptief voor de samenleving zal zijn als elektriciteit, en wordt vaak betrapt op het enthousiast praten over het potentieel van disruptieve technologieën en AGI. Als een futurist, is hij toegewijd aan het onderzoeken van hoe deze innovaties onze wereld zullen vormgeven. Bovendien is hij de oprichter van Securities.io, een platform dat zich richt op investeren in cutting-edge technologieën die de toekomst opnieuw definiëren en hele sectoren herschappen.