Wywiady
Dr Mathilde Pavis, Head of Legal, OpenOrigins – Wywiad z serii

Dr Mathilde Pavis, Head of Legal w OpenOrigins, jest wiodącym ekspertem w dziedzinie regulacji sztucznej inteligencji i zarządzania mediami cyfrowymi, specjalizującym się w deepfakes, syntetycznych mediach i pochodzeniu treści. Doradza firmom, rządom i związkom zawodowym w zakresie zgodności, licencjonowania i ryzyka w generatywnej sztucznej inteligencji, a także współpracowała z Microsoft i ElevenLabs w zakresie polityki i strategii sztucznej inteligencji. Doradzała również UNESCO w sprawie sztucznej inteligencji i własności intelektualnej, a także regularnie przekazuje ekspertów dowodów brytyjskim decydentom.
OpenOrigins rozwija technologie do walki z dezinformacją i deepfakes poprzez tworzenie weryfikowalnych, niezmienialnych rekordów cyfrowej treści. Jej platforma koncentruje się na ustanowieniu wyraźnego pochodzenia, umożliwiając mediom, twórcom i platformom udowodnienie, kiedy i jak treść została utworzona, edytowana i rozpowszechniona – coraz bardziej krytyczna zdolność, gdy syntetyczne media stają się bardziej zaawansowane i trudniejsze do wykrycia.
Masz doświadczenie w doradzaniu rządom, globalnym instytucjom, takim jak UNESCO, oraz firmom, takim jak Microsoft i ElevenLabs w zakresie regulacji sztucznej inteligencji. Co skłoniło Cię do skupienia się konkretnie na deepfakes, cyfrowych replikach i syntetycznych mediach, i jak ta podróż ukształtowała Twoją decyzję o założeniu Replique?
Moja praca nad deepfakes nie zaczęła się od technologii – zaczęła się od znacznie starszej zagadki prawnej. Kiedy zacząłem badać własność intelektualną na potrzeby mojego doktoratu w 2013 roku, zaskoczyło mnie, jak mniejszą ochronę otrzymują wykonawcy w porównaniu z autorami, kompozytorami lub filmowcami. W praktyce oznacza to, że Twoje słowa lub muzyka są lepiej chronione w prawie niż Twój głos, twarz i ciało. To niedopasowanie wydawało mi się dziwne i skłoniło mnie do zadania głębszego pytania: jak kulturowo i prawnie cenimy pracę kogoś, którego wkładem jest jego twarz, głos i ciało na ekranie?
To pytanie skierowało mnie w stronę praw wykonawców i danych. W tamtym czasie uważano to za wąską dziedzinę o niewielkim znaczeniu komercyjnym. Aktywnie radzono mi, abym przeniósł się do bardziej “lucratywnych” dziedzin, takich jak patenty lub tradycyjne prawa autorskie. Założono, że kwestie związane z podobizną lub głosem są w dużej mierze zarządzane nieformalnie – za pomocą norm branżowych lub “gentlemen’s agreements” w Hollywood. Ale dla mnie ten brak formalnej ochrony sygnalizował lukę, a nie ślepy zaułek dla moich badań, więc kontynuowałem.
Co się zmieniło, to fakt, że dziś prawie każdy jest wykonawcą. Nasze życie jest pośredniczone przez kamery – na telefonach, laptopach, wideokonferencjach i platformach społecznościowych. Niezależnie od tego, czy jest to dla pracy, czy dla użytku osobistego, ludzie ciągle nagrywają i udostępniają wersje siebie. Prawne pytania, które kiedyś dotyczyły głównie aktorów lub muzyków, teraz dotyczą każdego posiadacza smartfona.
Deepfakes nie stworzyły tych problemów – odsłoniły i przyspieszyły je. Badania, które prowadziłem od 2013 roku, nagle stały się pilne. Około 2017 i 2018 roku rozwój sieci neuronowych – szczególnie w miejscach takich jak MIT i UC Berkeley – zaczął demonstrować, jak przekonywająco można cyfrowo manipulować twarzą, głosem i ciałem osoby. W ciągu roku ta zdolność stała się powszechnie znana jako “deepfakes” i najpierw zyskała popularność w głęboko szkodliwy sposób, szczególnie poprzez niezgodną z prawem treść seksualną wymierzoną w kobiety i dzieci.
Dopiero później pojawiły się implikacje handlowe, gdy branże twórcze zaczęły przyjmować syntetyczne media. To jest moment, kiedy umowne i ekonomiczne pytania, nad którymi pracowałem, wyszły na pierwszy plan. Niemal z dnia na dzień to, co było uważane za w dużej mierze teoretyczną lub doktrynalną dziedzinę prawa, stało się wysoko praktyczną, komercyjnie istotną i społecznie pilną dziedziną.
Podstawowy wyzwanie prawne nie uległo zmianie: ludzie chcą udostępnić aspekty siebie, ale nadal zachować znaczącą kontrolę. Istniejące ramy mają trudności z tym subtelnością. Tendencja do traktowania osób jako albo całkowicie prywatnych, albo całkowicie publicznych – albo chronionych, albo fair game. Ale większość ludzi istnieje gdzieś pomiędzy. To napięcie jest teraz centralne nie tylko dla profesjonalnych wykonawców, ale dla każdego uczestniczącego w cyfrowym życiu.
Zostałem uznany za kogoś, kto badał i pracował w tym obszarze, co skłoniło mnie do pracy z rządami zainteresowanymi ochroną ludzi przed deepfakes, oraz firmami chcącymi uczynić produkty cyfrowego klonowania bezpiecznymi do użycia, takimi jak ElevenLabs. W Replique przynoszę wszystko, czego nauczyłem się, ludziom i firmom, które chcą używać technologii cyfrowego klonowania lub cyfrowych replik w sposób odpowiedzialny i bezpieczny. Podstawowo przekształciłem swoje “niebieskie niebo” badań w działalność doradczą, która przynosi specjalistyczne porady prawne branżom twórczym.
Jako Head of Legal w OpenOrigins, firmie skupiającej się na ustanowieniu niezmienialnego rekordu pochodzenia treści w celu walki z deepfakes, jak ważne są systemy oparte na pochodzeniu w porównaniu z tradycyjnymi podejściami do wykrywania deepfakes?
Porównywanie narzędzi do wykrywania deepfakes może szybko stać się ćwiczeniem porównującym jabłka i pomarańcze, ponieważ ich skuteczność zależy od kontekstu i celu. Z punktu widzenia polityki potrzebujemy szeregu uzupełniających się narzędzi – nie ma jednego “najlepszego” rozwiązania, a OpenOrigins jest tylko częścią tego szerszego ekosystemu. Tam, gdzie technologia OpenOrigins wyróżnia się jako rozwiązanie do wykrywania deepfakes, są sytuacje, w których twórca treści lub organizacja informacyjna musi udowodnić autentyczność treści, którą udostępnia partnerom, odbiorcom lub publiczności.
Poprzez zapewnienie weryfikowalnego pochodzenia i “potwierdzeń” w momencie tworzenia, oferuje silną formę zapobiegania, demonstrując, że treść nie jest deepfake. Jednakże, takie podejście jest mniej przydatne dla zwykłych użytkowników internetu, którzy chcą szybko ocenić treść, którą napotkają w sieci. W takich przypadkach wykrywanie opiera się bardziej na probabilistycznych i metodach analizy treści, niż na weryfikacji opartej na pochodzeniu. Potrzebujemy różnych narzędzi do różnych potrzeb i musimy zaakceptować, że nie ma srebrnej kuli przeciw deepfakes.
Z punktu widzenia prawnego, jaka jest obecnie największa luka w tym, jak jurysdykcje radzą sobie z zgodą i własnością w treści generowanej przez sztuczną inteligencję lub replikowanej przez sztuczną inteligencję?
Och, jak długo masz? Odpowiedzi zależą od tego, co rozumiemy przez treść generowaną przez sztuczną inteligencję lub replikowaną przez sztuczną inteligencję. Problemy różnią się, czy spoglądasz na obraz domu lub kota. Czy cyfrową rekreację twarzy osoby lub jej głosu. Ograniczmy się do tematu deepfakes i cyfrowych replik, i odpowiemy na Twoje pytanie w kontekście “cyfrowego klonowania”.
W kwestii zgody podstawowym problemem jest to, że większość umów – czy to umów o pracę, czy warunków platform – zawiera szerokie, niejasne klauzule, które przyznają rozległe prawa do treści użytkowników. Mogą one być interpretowane jako forma “tylnej drzwi” zgody, gdzie zgadzanie się na warunki może być uznane za zgodę na użycie, takie jak klonowanie, chociaż większość ludzi byłaby silnie temu przeciwna. To tworzy znaczącą lukę między interpretacją prawną a oczekiwaniami użytkowników, na korzyść firm, podczas gdy regulacje pozostają w tyle.
W kwestii własności nie ma wyraźnej odpowiedzi prawnej na to, kto włada cyfrową repliką, ponieważ istniejące ramy, takie jak ochrona danych, prawa autorskie i prawa osobiste, nie zostały zaprojektowane z myślą o tej technologii. Dziś większość ludzi jest skanowana i klonowana w pracy, na żądanie i z finansowania pracodawcy lub klienta. I te podmioty zwykle oczekują wysokiego stopnia kontroli nad tym aktywem, co jest zrozumiałe, ale często problematyczne, ponieważ ten aktyw jest cyfrową imitacją Twojej twarzy lub głosu i może powodować, że mówisz rzeczy, których nigdy nie mówiłeś, lub robisz rzeczy, których nigdy nie robiłeś.
Pytanie “kto włada Twoim klonem?” jest bardzo ważne, a jednak nie zostało odpowiednio uregulowane w prawie.
Jakie są najbardziej niezrozumiane ryzyka prawne związane z syntetycznymi głosami, zarówno dla firm, jak i osób?
Najbardziej niezrozumiany problem w zgodności prawnej jest równowaga między komercyjnym zainteresowaniem firm w finansowaniu i eksploatowaniu cyfrowej repliki a prawem jednostki do prywatności i cyfrowej godności. To napięcie leży na przecięciu wielu reżimów prawnych (głównie własności intelektualnej, ochrony danych i prywatności), które nie zostały zaprojektowane do współpracy i interpretują klonowanie w zasadniczo różny sposób. W efekcie tłumaczenie tego na praktyczne, przyjazne dla biznesu praktyki jest skomplikowane i często niejasne. Firmy albo pomijają kluczowe ryzyka, albo ponoszą znaczne koszty, aby je odpowiednio rozpoznać. To powoduje niesłuszony wynik, w którym odpowiednia zgodność staje się trudniejszym i droższym ścieżką, zamiast domyślną.
Jak powinny firmy myśleć o architekturze zgody w systemach sztucznej inteligencji, szczególnie przy podejściu do podobizny, tożsamości i danych szkoleniowych?
Firmy powinny projektować swoje systemy wokół trzech podstawowych możliwości. Po pierwsze, muszą zapewnić poinformowaną, kontekstową zgodę podczas wstępnego podłączenia. Po drugie, muszą umożliwić użytkownikom łatwe wycofanie tej zgody i usunięcie części lub całości ich danych, co jest technicznie wymagające i często pomijane, ale niezbędne do zgodności z prawami, takimi jak UK i EU GDPR oraz podobnymi reżimami w USA. Utrzymywanie zgody w czasie oznacza budowanie systemów, w których wycofanie jest operacyjnie gładkie i zgodne z modelem biznesowym.
Zgoda musi być szczegółowa. Po trzecie, użytkownicy powinni móc zarządzać uprawnieniami na poziomie poszczególnych plików, aktualizować swoje dane podobizny i rozumieć, w jaki sposób są one wykorzystywane. To wymaga przejrzystości i kontroli – narzędzi, które pozwalają użytkownikom monitorować, przeglądać i moderować, w jaki sposób ich cyfrowe klony są wdrożone. Taki poziom elastyczności jest nadal rzadki, ale leży tam, gdzie coraz częściej tkwi przewaga konkurencyjna.
W Twoim doświadczeniu doradzania zarówno startupom, jak i rządom, gdzie leży największa różnica między tym, jak sztuczna inteligencja jest budowana, a tym, jak jest regulowana?
Różnica między tym, jak sztuczna inteligencja jest budowana, a tym, jak jest regulowana, sprowadza się do fundamentalnie różnych misji. Rządy regulują w interesie publicznym, podczas gdy firmy sztucznej inteligencji (często wspierane przez venture capital) są głównie napędzane przez wzrost, przychody i zysk. Te priorytety nie zawsze są w konflikcie, ale często ciągną w różne strony, z regulacjami postrzeganymi jako ograniczenie, a nie wsparcie.
To tworzy strukturalne napięcie: regulatorzy i innowatorzy działają z różnymi zachętami, wartościami i nawet językami. To utrudnia wyrównanie w praktyce, nawet jeśli nie jest to niemożliwe. Zaczynamy widzieć nową falę firm technologicznych, które coraz bardziej wyznaczają się na celach zgodnych z interesem publicznym, ale pozostają one wyjątkiem, a nie regułą – szczególnie wśród tych, które udanie się rozwijają.
OpenOrigins koncentruje się na weryfikacji treści w momencie jej tworzenia przy użyciu kryptograficznego pochodzenia. Jak krytyczne jest to podejście “pierwotne” w porównaniu z zabezpieczeniami po dystrybucji?
To łączy się z moją odpowiedzią powyżej. Autentykowanie treści w momencie tworzenia, “w górę strumienia” jest znacznie bardziej skuteczne niż próba jej weryfikacji w momencie dystrybucji lub konsumpcji, czyli “w dół strumienia”. Autentykowanie treści w momencie tworzenia jest jak śledzenie żywności od momentu, gdy jest uprawiana na farmie, a nie próba ustalenia tego na podstawie tego, co jest na Twoim talerzu. Jeśli wiesz, gdzie kurczak został wyhodowany, jak był obsługiwany i jak przeszedł przez łańcuch dostaw, możesz ufać temu, co jesz. Jeśli zamiast tego próbujesz wywnioskować wszystko to tylko z gotowego dania, polegasz na domysłach. To samo dotyczy rozróżniania między treścią stworzoną przez człowieka a generowaną przez sztuczną inteligencję w sieci: pochodzenie w źródle daje weryfikowalną gwarancję, podczas gdy wykrywanie w dół strumienia jest z natury bardziej niepewne i reaktywne.
Jaką rolę widzisz dla standardów, takich jak C2PA, w przyszłości mediów, i czy są one wystarczające same w sobie, aby przywrócić zaufanie online?
C2PA to mile widziana inicjatywa, a w wielu ways wspiera ten sam ruch na rzecz autentyczności treści, co OpenOrigins. Są ważną częścią ekosystemu bezpieczeństwa treści i autentyczności treści. Jak każde narzędzie bezpieczeństwa, nie ma srebrnej kuli.
Dla twórców i talentów w branżach takich jak film, muzyka i gry, jakie praktyczne kroki powinni podjąć dzisiaj, aby chronić się przed nieautoryzowaną replikacją cyfrową?
Artyści dzisiaj stają w obliczu dwóch odrębnych ryzyk: replikacji ich pracy (takiej jak muzyka, obrazy lub pisanie) i replikacji ich podobizny, w tym twarzy, głosu i ciała. Z minimalnym wkładem systemy sztucznej inteligencji mogą teraz odtworzyć obie z wysokim stopniem wierności. W praktyce ochrona zaczyna się od tego, aby być świadomym tego, co się udostępnia w sieci, uznając, że każda opublikowana treść może być pobrana i wykorzystana w zestawach danych szkoleniowych, często bez wyraźnej zgody lub widoczności.
To ryzyko jest teraz podstawową rzeczywistością działania w sieci. Ale bardziej bezpośrednie i kontrolowane ryzyko często leży w umowach. Umowy, które artyści zawierają ze współpracownikami, dystrybutorami lub platformami, mogą zawierać klauzule, które zezwalają na użycie sztucznej inteligencji, ponowne użycie lub odsprzedaż treści w celach szkoleniowych – często bez znaczącego udziału w przychodach z tytułu późniejszych praw.
Dla artystów oznacza to, że krytyczne jest zbadanie umów. Zrozumienie, w jaki sposób ich praca i podobizna mogą być wykorzystywane, licencjonowane lub wykorzystywane, jest teraz tak samo ważne, jak sam proces twórczy. Większość obecnej debaty (w związkach, organizacjach branżowych i platformach) koncentruje się na skorygowaniu tego dysbalansu i zapewnieniu, że twórcy zachowają kontrolę i uczciwą rekompensatę.
Więc dwa kluczowe porady: bądź ostrożny, co udostępniasz w sieci, i przeczytaj swoje umowy i szukaj klauzul sztucznej inteligencji, zanim je podpiszesz.
Spójrzając w przyszłość, trzy do pięciu lat, uważasz, że osiągniemy punkt, w którym każdy kawałek cyfrowej treści musi posiadać weryfikowalne pochodzenie, czy zaufanie pozostanie rozdrobnione na platformach i jurysdykcjach?
Chciałbym powiedzieć tak, ale realistycznie, nie – nie w ciągu pięciu lat. W technologiach pięć lat wydaje się długo; w kwestii zmiany zachowań i nawyków użytkowników jest to bardzo krótko. Większość konsumentów nie jest prawdopodobnie skłonna opierać swoje decyzje na tym, czy treść posiada uwierzytelnione pochodzenie. Platformy tendencję do naśladowania popytu użytkowników, optymalizując zaangażowanie zamiast pochodzenia.
To mogłoby się zmienić, gdyby interweniowała regulacja. Zaczynamy widzieć wczesne ruchy w miejscach takich jak Kalifornia, gdzie wymagania dotyczące oznaczeń i moderacji zaczynają się pojawiać, ale skalowanie tego na całym świecie zajmie czas – prawdopodobnie bliżej dziesięciu lat niż pięciu.
Inną dziedziną zmian są branże specyficzne: gałęzie takie jak dziennikarstwo, finanse, ubezpieczenia i opieka zdrowotna mogą zacząć wymagać pochodzenia i uwierzytelnienia, ponieważ zaufanie jest podstawowe dla ich operacji.
Na koniec, konsumenci mogą nie dbać o informacje o pochodzeniu w krótkim terminie, ale mogą dbać o jakość treści i jakość informacji. Jeśli treść generowana przez sztuczną inteligencję stanie się zbyt jednorodna lub “nijaka”, widownia może zacząć bardziej cenić treść stworzoną przez człowieka. To mogłoby napędzić segmentację rynku, z niektórymi platformami priorytetowo traktującymi skalę i treść generowaną przez sztuczną inteligencję, a innymi kierując się autentycznością, pochodzeniem i materiałami o wysokim zaufaniu, prowadzonymi przez ludzi – ale taka zmiana pozostaje nieznana.
Dziękuję za Twoje wspaniałe odpowiedzi, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić OpenOrigins.












