Интервью
Доктор Матьельд Павис, руководитель юридического отдела OpenOrigins – Интервью

Доктор Матьельд Павис, руководитель юридического отдела OpenOrigins, является ведущим экспертом в области регулирования искусственного интеллекта и цифровых медиа, специализирующимся на глубоких подделках, синтетических медиа и происхождении контента. Она консультирует компании, правительства и профсоюзы по вопросам соблюдения требований, лицензирования и рисков, связанных с генеративным искусственным интеллектом, и работала с Microsoft и ElevenLabs над политикой и стратегией искусственного интеллекта. Она также консультировала ЮНЕСКО по вопросам искусственного интеллекта и интеллектуальной собственности и регулярно предоставляет экспертные показания британским политикам.
OpenOrigins разрабатывает технологии для борьбы с дезинформацией и глубокими подделками, создавая верифицируемые, защищенные от篡改 записи цифрового контента. Ее платформа фокусируется на установлении четкого происхождения, позволяя средствам массовой информации, создателям и платформам доказать, когда и как контент был создан, отредактирован и распространен – это все более критическая возможность, поскольку синтетические медиа становятся более совершенными и труднее обнаруживаемыми.
Вы консультировали правительства, глобальные институты, такие как ЮНЕСКО, и компании, такие как Microsoft и ElevenLabs, по вопросам регулирования искусственного интеллекта. Что привело вас к сосредоточению внимания на глубоких подделках, цифровых репликах и синтетических медиа, и как это повлияло на ваше решение основать Replique?
Моя работа над глубокими подделками не началась с технологии – она началась с гораздо более старой юридической загадки. Когда я начала исследовать интеллектуальную собственность для своей диссертации в 2013 году, я была поражена тем, насколько меньше защиты получают исполнители по сравнению с авторами, композиторами или кинематографистами. На практике это означает, что ваши слова или ваша музыка лучше защищены законом, чем ваш голос, ваше лицо и ваше тело. Этот дисбаланс показался мне странным, и он заставил меня задать более глубокий вопрос: как мы культурно и юридически оцениваем работу человека, чей вклад заключается в его лице, голосе и теле на экране?
Этот вопрос привел меня к правам исполнителей и данным. В то время это считалось нишевым направлением с небольшим коммерческим значением. Меня активно советовали перейти в более “выгодные” области, такие как патенты или традиционные авторские права. Предполагалось, что вопросы, связанные с подобием или голосом человека, в основном решались неформально – через отраслевые нормы или “джентльменские соглашения в Голливуде”. Но для меня это отсутствие формальной защиты сигнализировало о пробеле, а не о тупике для моих исследований, поэтому я продолжила работать над этим.
Что изменилось, так это то, что сегодня почти каждый является исполнителем. Наша жизнь посредством камер – на телефонах, ноутбуках, видеозвонках и социальных платформах. Будь то для работы или личного использования, люди постоянно записывают и делятся версиями себя. Юридические вопросы, которые ранее применялись в основном к актерам или музыкантам, теперь применяются к любому, у кого есть смартфон.
Глубокие подделки не создали эти проблемы – они их раскрыли и ускорили. Исследования, которые я проводила с 2013 года, вдруг стали срочными. Около 2017 и 2018 годов разработки в области нейронных сетей – в частности, в таких местах, как MIT и UC Berkeley – начали демонстрировать, насколько убедительно можно манипулировать лицом, голосом и телом человека. В течение года эта возможность стала широко известна как “глубокие подделки”, и она сначала получила распространение в глубоко вредных формах, особенно через неконсенсусный сексуальный контент, нацеленный на женщин и детей.
Только позже появились коммерческие последствия, когда творческие отрасли начали использовать синтетические медиа. Это было то время, когда контрактные и экономические вопросы, над которыми я работала, приобрели первостепенное значение. Почти за одну ночь то, что считалось в основном теоретической или доктринальной областью права, стало высоко практической, коммерчески значимой и социально срочной областью.
В своей основе юридический вызов не изменился: люди хотят делиться аспектами себя, но все еще сохранять значимый контроль. Существующие рамки борются с этой нюансом. Они склонны рассматривать людей как либо полностью частных, либо полностью публичных – либо защищенных, либо честной игры. Но большинство людей существуют где-то посередине. Это напряжение теперь центральным не только для профессиональных исполнителей, но и для любого, кто участвует в цифровой жизни.
Я стала известна как тот, кто исследует и работает в этой области, что привело меня к работе с правительствами, заинтересованными в защите людей от глубоких подделок, и компаниями, желающими сделать цифровые клонированные продукты безопасными для использования, такие как ElevenLabs. В Replique я привношу все, что я узнала, к людям и компаниям, которые хотят использовать цифровое клонирование или технологию цифровых реплик ответственно и безопасно. Я по сути превратила свои “голубые небеса” исследования в консультационный бизнес, который предоставляет специализированные юридические советы творческим отраслям.
Как руководитель юридического отдела OpenOrigins, компании, ориентированной на создание неизменяемой записи происхождения контента для борьбы с глубокими подделками, как вы видите конкуренцию или замену традиционных подходов к обнаружению глубоких подделок на основе происхождения?
Сравнение инструментов обнаружения глубоких подделок может быстро стать сравнением яблок и апельсинов, поскольку их эффективность зависит от контекста и цели. С точки зрения политики нам нужно разнообразие дополнительных инструментов – нет единого “лучшего” решения, и Open Origins является только частью этой более широкой экосистемы. Где технология OpenOrigins выделяется как решение для обнаружения глубоких подделок, так это в ситуациях, когда создатель контента или информационная организация должна доказать подлинность контента, который они делятся с партнерами, аудиторией или общественностью.
Предоставляя верифицированное происхождение и “квитанции” на момент создания, она предлагает сильную форму профилактики, демонстрируя, что контент не является глубокой подделкой. Однако этот подход менее полезен для обычных пользователей интернета, которые хотят быстро оценить контент, который они встречают в Интернете. В этих случаях обнаружение больше полагается на вероятностные и методы анализа контента, а не на верификацию на основе происхождения. Нам нужны разные инструменты для разных потребностей, и нам нужно признать, что нет серебряной пули против глубоких подделок.
С юридической точки зрения, какой сейчас самый большой пробел в том, как юрисдикции справляются с согласием и владением в контенте, сгенерированном или скопированном искусственным интеллектом?
Ох, сколько у вас времени? Ответ зависит от того, что мы подразумеваем под контентом, сгенерированным или скопированным искусственным интеллектом. Проблемы варьируются, будь то изображение дома или кошки. Или цифровая реконструкция лица человека или его голоса. Давайте придерживаемся темы глубоких подделок и цифровых реплик, и ответим на ваш вопрос в контексте “цифрового клонирования”.
По вопросу согласия основная проблема заключается в том, что большинство контрактов – будь то трудовые соглашения или условия платформ – содержат широкие, расплывчатые положения, которые предоставляют обширные права над контентом пользователей. Эти положения можно интерпретировать как форму “задней двери согласия”, когда согласие с условиями может быть рассмотрено как согласие на использование, такое как клонирование, даже если большинство людей бы сильно оспорили эту интерпретацию. Это создает значительный пробел между юридической интерпретацией и ожиданием пользователя, который в настоящее время выгоден компаниям, а регулирование отстает.
По вопросу владения нет четкого юридического ответа на то, кто владеет цифровой копией, поскольку существующие рамки, такие как защита данных, авторское право и права личности, не были разработаны для этой технологии. Сегодня большинство людей сканируются и клонируются на работе, по требованию и за счет работодателя или клиента. И эти сущности обычно ожидают высокого уровня контроля над этим активом, который является цифровым подражанием вашему лицу или вашему голосу, и может заставить вас говорить вещи, которые вы никогда не говорили, или делать вещи, которые вы никогда не делали.
Вопрос “кто владеет вашей копией?” очень важен, но остается без ответа в законе сегодня.
Вы работали в тесном сотрудничестве над технологиями клонирования голоса. Какие наиболее неправильно понимаемые юридические риски, связанные с синтетическими голосами, как для компаний, так и для частных лиц?
Самый неправильно понимаемый вопрос в юридической совместимости – это баланс между коммерческим интересом компании в финансировании и эксплуатации цифровой копии и правом человека на неприкосновенность частной жизни и цифровую достоинство. Это напряжение существует в нескольких юридических режимах (в основном интеллектуальной собственности, защите данных и неприкосновенности частной жизни), которые никогда не были разработаны для совместной работы и интерпретируют клонирование по-разному. В результате перевод этого в рабочую, бизнес-дружественную практику является сложным и часто неясным. Компании либо игнорируют ключевые риски, либо несут значительные затраты, чтобы правильно ориентироваться в них. Это приводит к абсурдному результату, когда ответственное соблюдение становится более трудным и дорогим путем, а не стандартным.
Как компании должны думать об архитектуре согласия в системах искусственного интеллекта, особенно при работе с подобием, идентичностью и обучающими данными?
Компании должны проектировать свои системы вокруг трех основных возможностей. Во-первых, им необходимо обеспечить информированное, контекстное согласие при входе в систему. Во-вторых, им необходимо сделать легко для пользователей отозвать это согласие и удалить некоторые или все свои данные, что технически сложно и часто упускается из виду, но важно для соблюдения законов, таких как GDPR в Великобритании и ЕС, и аналогичных режимов в США. Поддержание согласия во времени означает создание систем, в которых отзыв является оперативно гладким и соответствует бизнес-модели.
Согласие должно быть гранулярным. И, третье, пользователям должно быть позволено управлять разрешениями на уровне отдельных файлов, обновлять свои данные о подобии и понимать, как они используются. Для этого требуется прозрачность и контроль – инструменты, которые позволяют пользователям отслеживать, просматривать и модерировать, как их цифровые копии развертываются. Этот уровень гибкости пока редок, но он является тем, где все больше лежит конкурентное преимущество.
В вашем опыте консультирования как стартапов, так и правительств, где находится самый большой разрыв между тем, как строится искусственный интеллект, и тем, как он регулируется?
Разрыв между тем, как строится искусственный интеллект, и тем, как он регулируется, сводится к фундаментально разным миссиям. Правительства регулируют в общественных интересах, в то время как компании искусственного интеллекта (часто поддерживаемые венчурным капиталом) в первую очередь движимы ростом, доходом и прибылью. Эти приоритеты не всегда конфликтуют, но они часто тянут в разных направлениях, с регулированием, рассматриваемым как ограничение, а не поддержка.
Это создает структурное напряжение: регулирующие органы и инноваторы работают с разными стимулами, ценностями и даже языками. Это делает выравнивание трудным на практике, даже если это не невозможно. Мы начинаем видеть новую волну технологических компаний, которые более тесно соответствуют общественным интересам, но они остаются исключением, а не правилом – особенно среди тех, кто успешно масштабируется.
OpenOrigins фокусируется на верификации контента на момент создания с помощью криптографического происхождения. Насколько критично это подход “первичное происхождение” по сравнению с мерами безопасности после распространения?
Это возвращает нас к моему предыдущему ответу. Аутентификация контента на момент создания, “вверх по течению”, намного более эффективна, чем попытка верифицировать его на момент распространения или даже потребления, т.е. “вниз по течению”. Аутентификация контента на момент создания подобна отслеживанию продуктов питания с момента их выращивания на ферме, а не попытке выяснить, что на вашей тарелке. Если вы знаете, где выращен курица, как она была обработана и как она прошла через цепочку поставок, вы можете доверять тому, что вы едите. Если вы вместо этого пытаетесь сделать все это, просто глядя на готовое блюдо, вы полагаетесь на догадки. Это то же самое с различением между контентом, созданным человеком, и контентом, сгенерированным искусственным интеллектом, в Интернете: происхождение в источнике дает вам верифицированную гарантию, в то время как обнаружение вниз по течению является внутренне более неопределенным и реактивным.
Какую роль вы видите для стандартов, таких как C2PA, в будущем медиа, и являются ли они сами по себе достаточными для восстановления доверия в Интернете?
C2PA – это желанная инициатива, и во многих отношениях она поддерживает тот же движущийся состав для подлинности контента, что и OpenOrigins. Они являются важной частью экосистемы безопасности контента и подлинности контента. Как и с любым инструментом кибербезопасности, нет серебряной пули.
Для создателей и талантов в отраслях, таких как кино, музыка и игры, какие практические шаги они должны предпринять сегодня, чтобы защитить себя от несанкционированного цифрового воспроизведения?
Художники сегодня сталкиваются с двумя различными рисками: репликацией их работы (такой как музыка, изображения или письмо) и репликацией их подобия, включая их лицо, голос и тело. С минимальным вводом системы искусственного интеллекта теперь могут воспроизвести оба с высокой степенью точности. В практических терминах защита начинается с того, что вы намеренно делитесь в Интернете, признавая, что любой контент, опубликованный в Интернете, может быть соскоблен и использован в обучающих наборах данных, часто без явного согласия или видимости.
Этот риск теперь является базовой реальностью работы в Интернете. Но более непосредственный и контролируемый риск часто лежит в контрактах. Соглашения, которые художники заключают со своими сотрудниками, дистрибьюторами или платформами, могут включать положения, которые позволяют использовать искусственный интеллект, повторное использование или перепродажу контента для обучения – часто без значительного участия в доходах, полученных позже.
Для художников это делает проверку контрактов критической. Понимание того, как ваша работа и подобие могут быть использованы, лицензированы или переработаны, теперь так же важно, как и сам творческий процесс. Большая часть текущего обсуждения (по союзам, отраслевым органам и платформам) центрируется вокруг исправления этого дисбаланса и обеспечения того, чтобы создатели сохранили как контроль, так и справедливое вознаграждение.
Итак, два ключевых совета: будьте осторожны с тем, что вы делитесь в Интернете, и читайте свои контракты и ищите положения об искусственном интеллекте, прежде чем подписывать.
Оглядываясь вперед на три-пять лет, вы считаете, что мы достигнем точки, когда каждый кусок цифрового контента должен нести верифицированное происхождение, или доверие останется фрагментированным по платформам и юрисдикциям?
Я хотела бы сказать да, но реалистично, нет – не в течение пяти лет. В технологиях пять лет кажется долгим; в плане изменения поведения и привычек пользователей это очень коротко. Большинство потребителей вряд ли будут принимать решения на основе того, имеет ли контент аутентифицированное происхождение. Платформы склонны следовать за спросом пользователей, оптимизируя для вовлеченности, а не происхождения.
Это может измениться, если регулирование вмешается. Мы уже видим первые шаги в таких местах, как Калифорния, где требования к маркировке и модерации появляются, но масштабирование этого глобально займет время – вероятно, ближе к десяти годам, чем к пяти.
Другой областью изменений является отраслевое – отрасли, такие как журналистика, финансы, страхование и здравоохранение, могут начать требовать происхождения и аутентификации, поскольку доверие является фундаментальным для их операций.
Наконец, потребители могут не заботиться о информации о происхождении в краткосрочной перспективе, но они, вероятно, будут заботиться о качестве контента и качестве информации. Если контент, сгенерированный искусственным интеллектом, станет слишком однородным или “плоским”, аудитории могут начать ценить контент, созданный человеком, более явно. Это может привести к сегментации рынка, когда некоторые платформы будут отдавать приоритет масштабу и контенту, сгенерированному искусственным интеллектом, а другие будут курировать аутентичность, происхождение и контент, созданный человеком, с высоким уровнем доверия – но этот сдвиг остается неизвестным.
Спасибо за ваши отличные ответы, читателям, которые хотят узнать больше, следует посетить OpenOrigins.












