Connect with us

Dr. Mathilde Pavis, Head of Legal, OpenOrigins – Interview Series

Rozhovory

Dr. Mathilde Pavis, Head of Legal, OpenOrigins – Interview Series

mm

Dr. Mathilde Pavis, Head of Legal at OpenOrigins, je vedoucí odbornice na regulaci AI a governance digitálních médií, specializující se na deepfakes, syntetická média a původ obsahu. Poskytuje poradenství společnostem, vládám a odborovým svazům v oblasti compliance, licencování a rizik spojených s generativními AI a spolupracovala s Microsoftem a ElevenLabs na politice a strategii AI. Rovněž poradila UNESCO v oblasti AI a duševního vlastnictví a pravidelně poskytuje odborné důkazy britským zákonodárcům.

OpenOrigins vyvíjí technologii pro boj proti dezinformacím a deepfakům vytvořením ověřitelných, nezfalšovatelných záznamů digitálního obsahu. Jeho platforma se zaměřuje na stanovení jasných původů, což umožňuje médiím, tvůrcům a platformám prokázat, kdy a jak byl obsah vytvořen, upraven a distribuován – schopnost, která je stále kritičtější, protože se syntetická média stávají pokročilejšími a obtížněji rozpoznatelnými.

Máte zkušenosti s poradenstvím vládám, globálním institucím, jako je UNESCO, a společnostem, jako je Microsoft a ElevenLabs, v oblasti regulace AI. Co vás vedlo k tomu, aby jste se zaměřila specificky na deepfakes, digitální repliky a syntetická média, a jak tato cesta ovlivnila vaše rozhodnutí založit Replique?

Má práce na deepfakes nezačala s technologií – začala s mnohem starší právní hádankou. Když jsem v roce 2013 začala zkoumat duševní vlastnictví pro svou disertační práci, byla jsem překvapena tím, jak málo ochrany mají výkonní umělci ve srovnání s autory, skladateli nebo filmaři. V praxi to znamená, že vaše slova nebo vaše hudba jsou lépe chráněny zákonem než vaše hlas, tvář a tělo. Tato nerovnováha mi připadala divná a vedla mě k zásadní otázce: jak kultivujeme a právně hodnotíme práci někoho, jehož příspěvek spočívá v jeho tváři, hlase a těle na obrazovce?

Tato otázka mě vedla k právu výkonných umělců a dat. V té době to byla považována za úzkou oblast s malým komerčním významem. Byla jsem aktivně doporučena, abych se přesunula do více „lucrativních“ oblastí, jako jsou patenty nebo tradiční autorská práva. Předpokladem bylo, že otázky týkající se podobizny nebo hlasu jsou většinou řešeny neformálně – prostřednictvím odvětvových norem nebo „gentlemanových dohod“ v Hollywoodu. Ale pro mě tato absence formální ochrany signalizovala mezeru, ne slepou uličku pro mou výzkum, a tak jsem v něm pokračovala.

Co se změnilo, je to, že dnes je téměř každý výkonný umělec. Naše životy jsou zprostředkovány kamerami – na telefonech, noteboocích, videohovorech a sociálních platformách. Bez ohledu na to, zda je to pro práci nebo osobní použití, lidé neustále nahrávají a sdílejí verze sami sebe. Právní otázky, které dříve platily hlavně pro herce nebo hudebníky, se nyní vztahují na kohokoli se smartphonem.

Deepfakes tyto problémy nevytvořily – pouze je odhalily a urychily. Výzkum, který jsem prováděla od roku 2013, se najednou stal naléhavým. Okolo roku 2017 a 2018 se začaly objevovat pokroky v neuronových sítích – zejména z míst, jako je MIT a UC Berkeley – které demonstrovaly, jak přesvědčivě lze digitálně manipulovat s tváří, hlasem a tělem člověka. Během roku se tato schopnost stala široce známou jako „deepfakes“ a nejprve získala trakci hluboce škodlivým způsobem, zejména prostřednictvím nevhodného sexuálního obsahu zaměřeného na ženy a děti.

Teprve později se objevily komerční důsledky, když kreativní průmysl začal přijímat syntetická média. To je okamžik, kdy se kontraktuální a ekonomické otázky, na kterých jsem pracovala, dostaly do popředí. Téměř přes noc se to, co bylo považováno za převážně teoretickou nebo doktrinální oblast práva, stalo vysoce praktickou, komerčně významnou a sociálně naléhavou oblastí.

V jeho jádru se právní výzva nezměnila: lidé chtějí sdílet aspekty sami sebe, ale zároveň si zachovat smysluplnou kontrolu. Stávající rámce s touto nuancí bojují. Tendují k tomu, aby jedince považovaly buď za zcela soukromé, nebo plně veřejné – buď chráněné, nebo spravedlivé hry. Ale většina lidí existuje někde mezi tím. Tento napětí je nyní centrální nejen pro profesionální výkonné umělce, ale pro každého, kdo se účastní digitálního života.

Stala jsem se známou jako někdo, kdo výzkumu a pracuje v tomto prostoru, což mě vedlo k práci s vládami, které jsou intéressovány ochranou lidí proti deepfakům, a společnostmi, které chtějí udělat digitální klonování produktů bezpečnými pro použití, jako je ElevenLabs. V Replique přináším všechno, co jsem se naučila, lidem a společnostem, které chtějí používat digitální klonování nebo digitální replikovou technologii zodpovědně a bezpečně. Základní jsem proměnila svou „modrou oblohu“ výzkum v poradenskou firmu, která poskytuje specializované právní poradenství kreativním průmyslům.

Jako Head of Legal at OpenOrigins, společnosti zaměřené na stanovení neměnného záznamu původu obsahu pro boj proti deepfakům, jak vidíte systémy založené na původu soutěžící nebo nahrazující tradiční přístupy k detekci deepfakes?

Srovnání nástrojů pro detekci deepfakes může rychle stát se cvičením „jablka a pomeranče“, protože jejich účinnost závisí na kontextu a účelu. Z politického hlediska potřebujeme řadu komplementárních nástrojů – neexistuje jediné „nejlepší“ řešení, a Open Origins je pouze jednou částí tohoto širšího ekosystému. Tam, kde se technologie OpenOrigins vyniká jako řešení pro detekci deepfakes, jsou situace, kdy tvůrce obsahu nebo informační organizace potřebují prokázat autenticitu obsahu, který sdílejí s partnery, publikem nebo veřejností.

Poskytováním ověřitelného původu a „příjmových“ dokladů v okamžiku vytvoření nabízí silnou formu prevence, prokazující, že obsah není deepfake. Nicméně, tento přístup je méně užitečný pro běžné uživatele internetu, kteří chtějí rychle posoudit obsah, se kterým se setkávají online. V takových případech závisí detekce více na pravděpodobnostních a obsahově-analytických metodách než na ověřování založeném na původu. Potřebujeme různé nástroje pro různé potřeby a musíme přijmout, že neexistuje žádný stříbrný projektil proti deepfakům.

Z právního hlediska, co je v současné době největší mezera v tom, jak jurisdikce zvládají souhlas a vlastnictví v AI-generovaném nebo AI-replikovaném obsahu?

Oof, jak dlouho máte? Odpovědi závisí na tom, co rozumíme pod AI-generovaným nebo replikovaným obsahem. Problémy se liší, zda se díváme na AI-generovanou obraz domu nebo kočky. Nebo digitální rekreaci osoby, její tváře nebo hlasu. Držme se tématu deepfakes a digitální repliky a odpovězme na vaši otázku v kontextu „digitálního klonování“.

Co se týče souhlasu, jádrem problému je, že většina smluv – ať už se jedná o smlouvy o zaměstnání nebo podmínky platforem – obsahuje široké, vágní klauzule, které poskytují rozsáhlá práva nad uživatelským obsahem. Tyto klauzule mohou být interpretovány jako forma „zadní vrátka“ pro souhlas, kde souhlas s podmínkami může být chápán jako souhlas s použitím, jako je klonování, i když většina lidí by silně popřela tuto interpretaci. To vytváří významnou mezeru mezi právní interpretací a uživatelskými očekáváními, která v současné době prospívají společnostem, zatímco regulace zůstává pozadu.

Co se týče vlastnictví, neexistuje jasná právní odpověď na to, kdo vlastní digitální klon, protože stávající rámce, jako je ochrana dat, autorská práva a práva osobnosti, nebyly navrženy pro tuto technologii. Dnes jsou většina lidí skenováni a klonováni na pracovišti, na žádost a se financováním zaměstnavatele nebo klienta. A tyto entity obvykle očekávají vysoký stupeň kontroly nad tímto aktivem, což je pochopitelné, ale často problematické, protože toto aktivum je digitální napodobeninou vaší tváře nebo vašeho hlasu a může říkat věci, které jste nikdy neřekli, nebo dělat věci, které jste nikdy nedělali.

Otázka „kdo vlastní váš klon?“ je velmi důležitá, ale zůstává nezodpovězená v právu dnes.

Pracovala jste úzce na technologiích pro klonování hlasu. Jaké jsou nejčastěji nepochopené právní rizika, pokud jde o syntetické hlasy, pro společnosti i jednotlivce?

Nejčastěji nepochopenou otázkou v právním souladu je rovnováha mezi komerčním zájmem společnosti ve financování a využívání digitálního klonu a právem jednotlivce na soukromí a digitální důstojnost. Tento napětí leží napříč několika právními režimy (především duševní vlastnictví, ochrana dat a soukromí), které nebyly navrženy pro fungování společně a interpretují klonování zásadně odlišnými způsoby. Jako výsledek, překlad tohoto do fungujících, podnikatelsky přívětivých praktik je komplexní a často nejasný. Společnosti proto buď přehlížejí klíčová rizika, nebo incuruje významné náklady na jejich správné zvládnutí. To vytváří perverzní výsledek, kde zodpovědná compliance se stává obtížnější a dražší cestou, než je výchozí.

Jak by měly podniky uvažovat o architektuře souhlasu v systémech AI, zejména při nakládání s podobiznou, identitou a trénovacími daty?

Společnosti by měly navrhnout své systémy kolem tří základních schopností. První, musí zabezpečit informovaný, kontextový souhlas při přihlášení. Druhý, musí umožnit uživatelům snadné odvolání tohoto souhlasu a smazání některých nebo všech svých dat, což je technicky náročné a často opomíjeno, ale nezbytné pro soulad se zákony, jako je britský a evropský GDPR a podobné režimy v USA. Udržování souhlasu v průběhu času znamená budování systémů, kde odvolání je operativně hladké a sladěné s obchodním modelem.

Souhlas musí být zrnitý. A třetí, uživatelé by měli být schopni spravovat oprávnění na úrovni jednotlivých souborů, aktualizovat svá data podobizny a rozumět, jak jsou využívána. To vyžaduje transparentnost a kontrolu – nástroje, které umožňují uživatelům monitorovat, přezkoumávat a moderovat, jak jsou jejich digitální klonování nasazena. Tato úroveň flexibility je dosud vzácná, ale leží v oblasti, kde se nachází konkurenční výhoda.

Vaší zkušeností s poradenstvím start-upům i vládám, kde je největší rozpor mezi tím, jak je AI budována a jak je regulována?

Rozpor mezi tím, jak je AI budována a jak je regulována, spočívá v fundamentálně odlišných misích. Vládám regulují ve veřejném zájmu, zatímco AI společnosti (často s venture kapitálem) jsou primárně poháněny růstem, výnosem a ziskem. Tyto priority ne vždy kolidují, ale často táhnou v různých směrech, s regulací viděnou jako omezení, spíše než podporu.

To vytváří strukturální napětí: regulátoři a inovátoři operují s odlišnými pobídkami, hodnotami a dokonce i jazyky. To činí sladění obtížným v praxi, i když to není nemožné. Začínáme vidět novou vlnu technologických společností, které se více sladí s veřejnými zájmy, ale tyto společnosti zůstávají výjimkou, spíše než pravidlem – zejména mezi těmi, které úspěšně škálují.

OpenOrigins se zaměřuje na ověřování obsahu v okamžiku jeho vytvoření pomocí kryptografického původu. Jak kritické je toto pojetí „origin-first“ ve srovnání s post-distribučními bezpečnostními opatřeními?

To se vrací k mé předchozí odpovědi. Autentizace obsahu při jeho vytvoření, „upstream“, je daleko účinnější než pokus o jeho ověření v okamžiku distribuce nebo spotřeby, tj. „downstream“. Autentizace obsahu při jeho vytvoření je jako stopování potravin od okamžiku, kdy jsou vypěstovány na farmě, spíše než pokus o jejich identifikaci z toho, co je na talíři. Pokud víte, kde byla kuřata chována, jak byla manipulována a jak prošla dodavatelským řetězcem, můžete důvěřovat tomu, co jíte. Pokud se naopak pokoušíte vše odvodit pouze z hotového jídla, spoléháte se na domněnky. Totéž platí pro rozlišení mezi člověkem vytvořeným a AI-generovaným obsahem online: původ na zdroji poskytuje ověřitelnou jistotu, zatímco detekce „downstream“ je inherentně nejistější a reaktivnější.

Jakou roli vidíte pro standardy, jako je C2PA, v budoucnosti médií, a jsou dostatečné samy o sobě k obnovení důvěry online?

C2PA je vítanou iniciativou a v mnoha ohledech podporuje stejný pohyb pro autenticitu obsahu, jako OpenOrigins. Jsou důležitou součástí ekosystému bezpečnosti a autenticity obsahu. Jako každý bezpečnostní nástroj, neexistuje žádný stříbrný projektil.

Pro tvůrce a talentované lidi v odvětvích, jako je film, hudba a hraní her, jaké praktické kroky by měli podniknout dnes, aby se chránili před neoprávněnou digitální replikací?

Umělci dnes čelí dvěma odlišným rizikům: replikaci své práce (jako je hudba, obrázky nebo psaní) a replikaci své podobizny, včetně tváře, hlasu a těla. S minimálním vstupem mohou AI systémy nyní reprodukovat obě s vysokou mírou věrnosti. V praktických termínech začíná ochrana tím, že jsou úmyslní ohledně toho, co sdílejí online, uznávajíce, že jakýkoli obsah, který je zveřejněn, může být skenován a použit v trénovacích datech, často bez jasného souhlasu nebo viditelnosti.

Tohle riziko je nyní základní realitou fungování online. Ale bližší a kontrolovatelnější riziko často spočívá ve smlouvách. Dohody, které umělci uzavírají se svými spolupracovníky, distributory nebo platformami, mohou zahrnovat klauzule, které umožňují AI použití, opětovné použití nebo prodej obsahu za účelem trénování – často bez významné účasti na následném výnosu.

Pro umělce je tohle kritické pro kontrolu smluv. Porozumění tomu, jak může být jejich práce a podobizna použita, licencována nebo repurposed, je nyní stejně důležité jako samotný tvůrčí proces. Velká část současné debaty (přes odbory, odvětvové organizace a platformy) se zaměřuje na korekci této nerovnováhy a zajištění, aby tvůrci si zachovali kontrolu a spravedlivé odměňování.

Takže dvě klíčová doporučení: buďte opatrní s tím, co sdílíte online, a pečlivě čtěte smlouvy a hledejte AI klauzule, než je podepíšete.

Pohledem do budoucna tři až pět let, věříte, že dosáhneme bodu, kdy každý kus digitálního obsahu musí nést ověřitelný původ, nebo zůstane důvěra fragmentovaná napříč platformami a jurisdikcemi?

Chtěl bych říci ano, ale realisticky, ne – ne do pěti let. V technologiích pět let feels dlouho; ve smyslu změny uživatelského chování a zvyklostí je to velmi krátké. Většina spotřebitelů je nepravděpodobné, že budou své rozhodnutí založeny na tom, zda obsah přichází s ověřeným původem. Platformy tendují k tomu, aby následovaly poptávku uživatelů, optimalizují se pro zapojení spíše než původ.

To by se mohlo změnit, pokud by zasáhla regulace. Už vidíme počáteční kroky na místech, jako je Kalifornie, kde se objevují požadavky na označování a moderaci, ale globální rozšíření toho bude trvat déle – pravděpodobně bližší k desetiletí než pět let.

Jiné oblasti změn jsou specifické pro odvětví: odvětví, jako je žurnalistika, finance, pojištění a zdravotnictví, mohou začít vyžadovat původ a autentizaci, protože důvěra je zásadní pro jejich operace.

Nakonec, spotřebitelé se možná nezajímají o informace o původu v krátkém horizontu, ale budou se zajímat o kvalitu obsahu a kvalitu informací. Pokud se AI-generovaný obsah stane příliš homogenním nebo „fádním“, diváci mohou začít více ocenit lidsky vytvořený obsah. To by mohlo vést k segmentaci trhu, kde některé platformy budou upřednostňovat rozsah a AI-generovaný obsah, zatímco jiné budou kurátovat pro autenticitu, původ a materiály vedené člověkem – ale tato změna zůstává neznámou.

Děkuji za vaše skvělé odpovědi, čtenáři, kteří chtějí se dozvědět více, by měli navštívit OpenOrigins.

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.