Connect with us

Доктор Матільд Павіс, керівник юридичного відділу OpenOrigins – Серія інтерв’ю

Інтерв’ю

Доктор Матільд Павіс, керівник юридичного відділу OpenOrigins – Серія інтерв’ю

mm

Доктор Матільд Павіс, керівник юридичного відділу OpenOrigins, є провідним експертом у сфері регулювання штучного інтелекту та управління цифровими медіа, спеціалізується на глибоких підробках, синтетичних медіа та походженні контенту. Вона консультує компанії, уряди та профспілки щодо дотримання законодавства, ліцензування та ризиків у генерації штучного інтелекту, і працювала з Microsoft та ElevenLabs над політикою та стратегією штучного інтелекту. Вона також консультувала ЮНЕСКО щодо штучного інтелекту та інтелектуальної власності, і регулярно надає експертні свідчення британським законодавцям.

OpenOrigins розробляє технології для боротьби з дезінформацією та глибокими підробками шляхом створення верифікованих, незмінних записів цифрового контенту. Її платформа зосереджена на встановленні чіткого походження, що дозволяє ЗМІ, творцям та платформам довести, коли та як контент був створений, відредагований та поширений – це все більш критична здатність, оскільки синтетичні медіа стають більш просунутими та важчими для виявлення.

Ви консультували уряди, глобальні інституції, такі як ЮНЕСКО, та компанії, такі як Microsoft та ElevenLabs, щодо регулювання штучного інтелекту. Що спонукало вас зосередитися конкретно на глибоких підробках, цифрових репліках та синтетичних медіа, і як ця подорож сформувала ваше рішення заснувати Replique?

Моя робота над глибокими підробками не почалася з технології – вона почалася з набагато старішої юридичної головоломки. Коли я почала досліджувати інтелектуальну власність для своєї дисертації в 2013 році, мене вразило, наскільки менше захисту отримують виконавці порівняно з авторами, композиторами або кінематографістами. На практиці це означає, що ваші слова або ваша музика закінчується краще захищеною законом, ніж ваш голос, ваше обличчя та ваше тіло. Ця диспропорція здавалася дивною, і це спонукало мене поставити глибше питання: як ми культурно та юридично оцінюємо роботу людини, чиїм внеском є її обличчя, голос та тіло на екрані?

Це питання привело мене до прав виконавців та даних. На той час це вважалося вузькою областю з мало комерційним значенням. Мене активно радили перейти до більш “прибуткових” галузей, таких як патенти або традиційний авторський прав. Припущення полягало в тому, що питання, пов’язані з подобою людини або голосом, в основному регулювалися неформально – через галузеві норми або “джентльменські угоди в Голлівуді”. Але для мене ця відсутність формального захисту сигналізувала про розрив, а не про тупик для моїх досліджень, тому я продовжила свою роботу.

Що змінилося, так це те, що сьогодні майже кожна людина є виконавцем. Наше життя опосередковане через камери – на телефонах, ноутбуках, відеозв’язках та соціальних платформах. Чи для роботи, чи для особистого використання, люди постійно записують та ділиться версіями себе. Юридичні питання, які раніше застосовувалися в основному до акторів або музикантів, тепер застосовуються до будь-якої людини з смартфоном.

Глибокі підробки не створили ці проблеми – вони викрили та прискорили їх. Дослідження, яке я проводила з 2013 року, раптом стало терміновим. Приблизно в 2017 та 2018 роках розробки в нейронних мережах – особливо з місць, таких як MIT та UC Berkeley – почали демонструвати, наскільки переконливо можна цифрово маніпулювати обличчям, голосом та тілом людини. За рік ця здатність стала широко відомою як “глибокі підробки”, і спочатку набула популярності в глибоко шкідливих способах, особливо через неконсensualний сексуальний контент, спрямований проти жінок та дітей.

Тільки пізніше виникли комерційні наслідки, оскільки творчі галузі почали采用 синтетичних медіа. Це було час, коли контрактні та економічні питання, над якими я працювала, перейшли на перший план. Практично за одну ніч те, що вважалося в основному теоретичною або доктринальною областю права, стало високопрактичною, комерційно значимою та соціально терміновою сферою.

У своєму ядрі юридичний виклик не змінився: люди хочуть ділитися аспектами себе, але все ж зберегти значний контроль. Існуючі рамки боротьби з цією нюансом. Вони схильні розглядати людей як повністю приватних або повністю публічних – або захищених, або справедливої гри. Але більшість людей існують десь посередині. Ця напруженість зараз центральна не тільки для професійних виконавців, але й для будь-якої людини, яка бере участь у цифровому житті.

Я стала відомою як людина, яка досліджувала та працювала в цій сфері, що привело мене до роботи з урядами, які цікавляться захистом людей від глибоких підробок, та компаніями, які хочуть зробити цифрові клони безпечними для використання, наприклад ElevenLabs. На Replique я привнесла все, що я дізналася, до людей та компаній, які хочуть використовувати цифрові клони або технологію цифрових реплік відповідально та безпечно. Я фактично перетворила свої “блакитні небеса” дослідження на консультаційну справу, яка надає спеціалізовані юридичні поради творчим галузям.

Як керівник юридичного відділу OpenOrigins, компанії, що зосереджена на встановленні незмінного запису походження контенту для боротьби з глибокими підробками, як ви бачите систему походження, що конкурує або замінює традиційні підходи до виявлення глибоких підробок?

Порівнювати інструменти виявлення глибоких підробок може швидко стати порівнянням яблук та апельсинів, оскільки їх ефективність залежить від контексту та мети. З точки зору політики, нам потрібно різноманітність додаткових інструментів – немає єдиної “кращої” рішення, і Open Origins є лише частиною цієї ширшої екосистеми. Там, де технологія OpenOrigins виділяється як рішення для виявлення глибоких підробок, це ситуації, коли творець контенту або інформаційна організація potřebує довести автентичність контенту, який вони ділять з партнерами, аудиторією чи громадськістю.

Від надаючи верифіковане походження та “квитки” на момент створення, вона пропонує сильну форму профілактики, демонструючи, що контент не є глибокою підробкою. Однак цей підхід менш корисний для звичайних інтернет-користувачів, які хочуть швидко оцінити контент, який вони зустрічають в Інтернеті. У цих випадках виявлення залежить більше від ймовірнісних та контент-аналітичних методів, а не від системи походження. Нам потрібні різні інструменти для різних потреб, і нам потрібно прийняти, що немає срібної кулі проти глибоких підробок.

З юридичної точки зору, яка зараз найбільша прогалина в тому, як юрисдикції обробляють згоду та володіння контентом, згенерованим штучним інтелектом або відтвореним штучним інтелектом?

Ох, як довго у вас є? Відповіді залежать від того, що ми розуміємо під контентом, згенерованим штучним інтелектом або відтвореним штучним інтелектом. Проблеми варіюються, залежно від того, чи дивимося ми на згенероване штучним інтелектом зображення будинку чи кота. Чи цифрову рекреацію обличчя людини чи його голосу. Давайте обмежимося темою глибоких підробок та цифрових реплік, і відповімо на ваше питання в контексті “цифрового клонування”.

Щодо згоди, основна проблема полягає в тому, що більшість контрактів – як угод про зайнятість, так і умови платформ – містять широкі, невизначені пункти, які надають широкі права щодо користування контентом. Це можна інтерпретувати як форму “підступної згоди”, коли погодження з умовами може бути розцінено як згоду на використання, наприклад, клонування, хоча більшість людей сильно сперечаються з цією інтерпретацією. Це створює значущу прогалину між юридичною інтерпретацією та очікуваннями користувачів, одну, яка зараз на користь компаній, тоді як регулювання відстає.

Щодо володіння, немає чіткої юридичної відповіді на те, хто володіє цифровим клоном, оскільки існуючі рамки, такі як захист даних, авторське право та права особистості, не були розроблені для цієї технології. Сьогодні більшість людей скануються та клонуються на роботі, за запитом та фінансуванням роботодавця або клієнта. І ці організації зазвичай очікують високого рівня контролю над цим активом, що є зрозумілим, але часто проблематичним, оскільки цей актив є цифровою імітацією вашого обличчя чи голосу, і може змусити вас говорити речі, яких ви ніколи не говорили, або робити речі, яких ви ніколи не робили.

Питання “хто володіє вашим клоном?” дуже важливе, але залишається без відповіді в законодавстві сьогодні.

Ви працювали в тісній співпраці з технологіями клонування голосу. Які найбільш недооцінені юридичні ризики щодо синтетичних голосів, як для компаній, так і для окремих осіб?

Найбільш недооцінена проблема у юридичному дотриманні – це баланс між комерційним інтересом компанії у фінансуванні та використанні цифрового клону та правом особи на приватність та цифрову гідність. Ця напруженість існує через кілька правових режимів (в основному інтелектуальна власність, захист даних та приватність), які ніколи не були розроблені для спільної роботи та інтерпретації клонування по-різному. В результаті переклад цього у дієві, дружні до бізнесу практики є складним і часто невизначеним. Компанії тому або ігнорують ключові ризики, або несуть значні витрати, щоб правильно ними керувати. Це створює перверсивний результат, коли відповідальне дотримання законодавства стає більш складним та дорогим шляхом, ніж стандартним.

Як підприємства повинні думати про архітектуру згоди в системах штучного інтелекту, особливо при роботі з подібністю, ідентичністю та навчальними даними?

Компанії повинні проектувати свої системи навколо трьох основних можливостей. По-перше, їм потрібно забезпечити інформовану, контекстну згоду на етапі налаштування. По-друге, їм потрібно зробити легко для користувачів відкликати цю згоду та видалити деякі або всі свої дані, що є технічно складним і часто втраченим, але необхідним для дотримання законодавства, таких як GDPR Великої Британії та ЄС та подібних режимів у США. Збереження згоди протягом часу означає будівництво систем, де відкликання є оперативно гладким та узгодженим з бізнес-моделлю.

Згода повинна бути гранульованою. І по-третє, користувачам повинні бути надані інструменти для керування дозволами на рівні окремих файлів, оновлення даних про свою подобу та розуміння того, як їх використовують. Це вимагає прозорості та контролю – інструментів, які дозволяють користувачам моніторити, переглядати та модерувати, як їх цифрові клони розгортаються. Цей рівень гнучкості зараз рідкісний, але це місце, де все частіше лежить конкурентна перевага.

За вашим досвідом консультування як стартапів, так і урядів, де найбільша роз’єднаність між тим, як будується штучний інтелект, та тим, як він регулюється?

Роз’єднаність між тим, як будується штучний інтелект, та тим, як він регулюється, зводиться до фундаментально різних місій. Уряди регулюють у громадських інтересах, тоді як компанії штучного інтелекту (часто підтримувані风险овим капіталом) в основному керуються зростанням, доходом та прибутком. Ці пріоритети не завжди конфліктують, але вони часто тягнуть у різні боки, з регулюванням, яке розглядається як обмеження, а не підтримка.

Це створює структуровану напруженість: регулювальники та інноватори діють з різними стимулами, цінностями та навіть мовами. Це робить узгодження складним на практиці, навіть якщо це не неможливо. Ми починаємо бачити нову хвилю технологічних компаній, які все більше узгоджуються з громадськими інтересами, але вони залишаються винятком, а не правилом – особливо серед тих, хто успішно масштабується.

OpenOrigins зосереджується на верифікації контенту на етапі створення за допомогою криптографічного походження. Наскільки критично це походження-першочергове підхід порівняно з заходами після розповсюдження?

Це з’єднується з моєю відповіддю вище. Аутентифікація контенту на етапі створення, “вгору по течії” значно більш ефективна, ніж спроба верифікувати його на етапі розповсюдження або навіть споживання, тобто “догори по течії”. Аутентифікація контенту на етапі створення подібна до того, щоб відстежувати їжу з моменту її вирощування на фермі, а не намагатися зрозуміти все лише з того, що на вашій тарілці. Якщо ви знаєте, де рослину виростили, як з нею поводилися та як вона рухалася через ланцюжок постачання, ви можете довіряти тому, що ви їсте. Якщо ви натомість намагаєтеся все це зрозуміти лише з готової страви, ви покладаєтеся на здогади. Те саме стосується розрізнення між людьми, створеними та штучним інтелектом, згенерованим контентом в Інтернеті: походження на джерелі дає вам верифіковану гарантію, тоді як виявлення після розповсюдження є внутрішньо більш невизначеним та реактивним.

Яку роль ви бачите для стандартів, таких як C2PA, у майбутньому медіа, і чи достатньо вони самі по собі для відновлення довіри в Інтернеті?

C2PA – це бажана ініціатива, і багатьма способами підтримує той же рух за автентичність контенту, що й OpenOrigins. Вони є важливою частиною екосистеми безпеки контенту та автентичності контенту. Як і з кожним інструментом кібербезпеки, немає срібної кулі.

Для творців та талантів у галузях, таких як кіно, музика та ігри, які практичні кроки вони повинні зробити сьогодні, щоб захистити себе від необґрантованого цифрового відтворення?

Художники сьогодні сталкнулися з двома окремими ризиками: реплікацією їхньої роботи (наприклад, музики, зображень чи письма) та реплікацією їхньої подоби, включаючи їхнє обличчя, голос та тіло. З мінімальними вхідними даними системи штучного інтелекту тепер можуть відтворити обидва з високим рівнем вірогідності. У практичних термінах захист починається з того, що ви свідомо оберігаєте те, що ви ділитесь в Інтернеті, визнаючи, що будь-який контент, опублікований у мережі, може бути зібраний та використаний для навчання наборів даних, часто без явної згоди чи видимості.

Цей ризик зараз є базовою реальністю роботи в Інтернеті. Але більш негайний та контрольований ризик часто лежить у контрактах. Угоди, які художники укладають зі своїми колегами, дистриб’юторами чи платформами, можуть містити пункти, які дозволяють використання штучного інтелекту, повторне використання чи перепродаж контенту для навчальних цілей – часто без суттєвої участі у майбутніх доходах.

Для художників це робить аналіз контрактів критично важливим. Знання того, як вашу роботу та подобу можна використовувати, ліцензувати чи перепрофільовувати, зараз так само важливо, як і сам творчий процес. Багато з поточної дискусії (у профспілках, галузевих органах та платформах) зосереджується на виправленні цього дисбалансу та забезпеченні того, щоб творці зберегли як контроль, так і справедливу компенсацію.

Отже, два ключових поради: будьте обережні з тим, що ви ділитесь в Інтернеті, і прочитайте свої контракти та шукайте пункти про штучний інтелект, перш ніж підписувати.

Оглядаючи вперед три-п’ять років, ви вважаєте, що ми досягнемо точки, де кожна частина цифрового контенту повинна мати верифіковане походження, або довіра залишається фрагментованою по платформам та юрисдикціям?

Я хотіла б сказати так, але реалістично, ні – не протягом п’яти років. У сфері технологій п’ять років здаються довгими; щодо зміни поведінки користувачів та звичок – це дуже короткий термін. Більшість споживачів навряд чи будуть приймати рішення на основі того, чи несе контент автентифіковане походження. Платформи схильні слідувати за попитом користувачів, оптимізуючи для участі, а не походження.

Це може змінитися, якщо втрутиться регулювання. Ми вже бачимо перші кроки в місцях, таких як Каліфорнія, де з’являються вимоги до маркування та модерації, але глобальне впровадження цього займе час – ймовірно, ближче до десяти років, ніж п’яти.

Іншою областю змін є галузева специфіка: галузі, такі як журналістика, фінанси, страхування та охорона здоров’я, можуть почати вимагати походження та автентифікацію, оскільки довіра є фундаментальною для їх операцій.

Останнє, але не менше, споживачі можуть не турбуватися про інформацію про походження зараз, але їм, ймовірно, буде важливо якісний контент та інформація. Якщо контент, згенерований штучним інтелектом, стане занадто однорідним або “блідим”, аудиторія може почати цінувати людський контент явно. Це може розділити ринок, коли деякі платформи будуть пріоритетом масштабу та контенту, згенерованого штучним інтелектом, а інші – кураторами автентичності, походження та високої довіри, людськи керованим матеріалом – але ця зміна залишається невідомою.

Дякую за ваші великі відповіді, читачам, які хочуть дізнатися більше, слід відвідати OpenOrigins.

Антуан є видним лідером і засновником Unite.AI, який рухає невпинною пристрастю до формування та просування майбутнього штучного інтелекту та робототехніки. Як серійний підприємець, він вважає, що штучний інтелект буде таким же революційним для суспільства, як і електрика, і часто захоплюється потенціалом деструктивних технологій та AGI.

Як футуролог, він присвячений дослідженню того, як ці інновації сформують наш світ. Крім того, він є засновником Securities.io, платформи, орієнтованої на інвестування в передові технології, які переінакшують майбутнє та змінюють цілі сектори.