Connect with us

访谈

帕维斯博士,OpenOrigins 法务负责人 – 采访系列

mm

帕维斯博士,OpenOrigins 的法务负责人,是人工智能监管和数字媒体治理的领先专家,专门研究深度伪造、合成媒体和内容来源。她为公司、政府和工会提供人工智能合规、许可和风险方面的建议,并曾与微软和 ElevenLabs 合作制定人工智能政策和策略。她还为联合国教科文组织提供了人工智能和知识产权方面的建议,并定期为英国政策制定者提供专家证词。

OpenOrigins 开发技术以通过创建可验证、防篡改的数字内容记录来对抗虚假信息和深度伪造。其平台专注于建立明确的来源,允许媒体、创作者和平台证明内容的创建、编辑和分发时间和方式——随着合成媒体变得更加先进和难以检测,这一功能变得越来越重要。

您曾为政府、全球机构如联合国教科文组织以及微软和 ElevenLabs 等公司提供人工智能监管方面的建议。是什么让您专注于深度伪造、数字复制和合成媒体,并如何影响您创立 Replique 的决定?

我的深度伪造研究并非从技术开始,而是从一个更古老的法律难题开始。2013 年,我开始研究知识产权博士学位时,我被这样一个事实所震惊:相比作者、作曲家或电影制片人,演员获得的保护要少得多。在实践中,这意味着您的文字或音乐在法律上比您的脸、声音和身体更有保护。这一不平衡感觉很奇怪,这促使我提出一个更深层次的问题:我们如何从文化和法律上评价一个人的贡献,他的贡献是他的脸、声音和身体出现在屏幕上?

这个问题让我进入了演员权利和数据领域。当时,这被认为是一个利基领域,商业相关性不大。我被主动建议转入更“有利可图”的领域,如专利或传统版权。人们的假设是,一个人的肖像或声音的问题主要通过行业规范或“好莱坞的绅士协议”来管理。但对我来说,这种缺乏正式保护的迹象表明这是一个缺口,而不是我的研究的死胡同,所以我继续进行研究。

发生了变化的是,今天,几乎每个人都是演员。我们的生活通过摄像头进行——在手机、笔记本电脑、视频通话和社交平台上。无论是用于工作还是个人使用,人们都在不断地录制和分享自己。曾经主要适用于演员或音乐家的法律问题现在适用于任何拥有智能手机的人。

深度伪造并没有创造这些问题——它们暴露并加速了这些问题。从 2013 年开始,我所做的研究突然变得紧迫。2017 年和 2018 年,神经网络(尤其是来自麻省理工学院和加州大学伯克利分校等地方的网络)开始展示如何令人信服地数字操纵一个人的脸、声音和身体。就在一年内,这种能力被广泛称为“深度伪造”,并首先以有害的方式获得了关注,尤其是通过针对女性和儿童的非自愿性内容。

稍后,商业影响出现了,因为创意产业开始采用合成媒体。这时,我一直在研究的合同和经济问题变得突出。几乎一夜之间,曾经被认为是理论或学说上的法律领域变成了一个非常实用、商业上重要且社会上紧迫的领域。

在其核心,法律挑战没有改变:人们希望分享自己的一些方面,但仍然希望保持有意义的控制。现有的框架难以应对这种细微差别。它们倾向于将个人视为完全私人或完全公开——要么受到保护,要么是公平游戏。但大多数人都处于两者之间。这种紧张关系现在不仅仅是针对专业演员,也是针对任何参与数字生活的人来说至关重要。

我被认为是研究和工作于此领域的专家,这让我有机会与政府合作,保护人们免受深度伪造的侵害,也有机会与希望使数字克隆产品安全使用的公司合作,例如 ElevenLabs。在 Replique,我将我所学的一切带给那些希望使用数字克隆或数字复制技术负责地、安全地使用它的人和公司。我基本上将我的“蓝天”研究转变为一项专门为创意产业提供法律建议的咨询业务。

作为 OpenOrigins 的法务负责人,OpenOrigins 是一家专注于建立不可变的内容来源记录以对抗深度伪造的公司,您如何看待基于来源的系统与传统的深度伪造检测方法的竞争或取代?

比较深度伪造检测工具可能很快就会变成一个苹果和橙子的比较,因为它们的有效性取决于上下文和目的。从政策角度来看,我们需要的是一系列互补工具——没有单一的“最佳”解决方案,OpenOrigins 是更广泛生态系统的一部分。在哪里,OpenOrigins 的技术作为深度伪造检测解决方案脱颖而出,是内容创作者或信息组织需要向合作伙伴、受众或公众证明他们共享的内容的真实性时的情况。

通过在创建时提供可验证的来源和“收据”,它提供了一种强大的预防形式,证明内容不是深度伪造。然而,这种方法对于想要快速评估在线遇到的内容的普通互联网用户来说不太有用。在这种情况下,检测更多地依赖于概率和内容分析方法,而不是基于来源的验证。我们需要不同工具来满足不同需求,我们需要接受没有单一的银弹来对抗深度伪造。

从法律角度来看,当前处理人工智能生成或复制内容的同意和所有权的最大差距在哪里?

哎呀,你有多长时间?答案取决于我们指的是什么人工智能生成或复制的内容。问题会根据你是否正在查看人工智能生成的图像或数字重现的人的脸或声音而有所不同。让我们坚持讨论深度伪造和数字复制的主题,并在“数字复制”的背景下回答你的问题。

关于同意,核心问题是大多数合同——无论是就业协议还是平台条款——都包含宽泛、模糊的条款,授予对用户内容的广泛权利。这些可以被解释为一种“后门同意”,即同意条款可能被视为同意使用数字克隆,即使大多数人会强烈反对这种解释。这在法律解释和用户期望之间创建了一个显著的差距,这一差距目前有利于公司,而监管措施落后。

关于所有权,目前没有明确的法律答案来说明谁拥有数字克隆,因为现有的框架(如数据保护、版权和人格权)并不是为此类技术而设计的。今天,大多数人在工作中被扫描和克隆,这通常是在雇主或客户的要求和资助下进行的。这些实体通常期望对此类资产拥有很高的控制权,这是可以理解的,但通常存在问题,因为该资产是您脸部或声音的数字模仿,可以让您说出您从未说过的话或做出您从未做过的事情。

“谁拥有你的克隆?”这个问题非常重要,但在今天的法律中仍然没有答案。

您曾密切合作过语音克隆技术。语音合成的最常被误解的法律风险是什么,既对于公司又对于个人?

法律合规性中最常被误解的问题是公司在资助和利用数字克隆方面的商业利益与个人的隐私和数字尊严之间的平衡。这一紧张关系跨越了多个法律制度(主要是知识产权、数据保护和隐私),这些制度从未被设计为一起运作,并以根本不同的方式解释克隆。因此,将其转化为可行的、商业友好的实践是复杂的,通常不清楚。公司因此要么忽略关键风险,要么为了正确处理它们而承担巨大的成本。这导致了一个不合理的结果,即负责任的合规性成为更困难、更昂贵的道路,而不是默认路径。

企业在处理人工智能系统中的肖像、身份和训练数据时,应该如何思考同意架构?

公司应该围绕三个核心能力设计他们的系统。首先,他们需要在入职时获得明确的、有上下文的同意。其次,他们必须使用户能够轻松撤回该同意并删除一些或所有他们的数据,这在技术上是具有挑战性的,往往被忽略,但对于遵守《通用数据保护条例》等法律(如英国和欧盟的《通用数据保护条例》以及美国的类似规定)至关重要。随着时间的推移,维护同意意味着建立系统,使撤回操作顺畅高效,并与业务模式保持一致。

同意必须是细粒度的。第三,用户应该能够在单个文件级别管理权限,更新他们的肖像数据,并了解它的使用方式。这需要透明度和控制——允许用户监控、审查和管理其数字克隆的部署的工具。这种灵活性仍然很罕见,但它是竞争优势日益增长的来源。

在您为初创公司和政府提供咨询的经验中,人工智能的构建和监管之间最大的脱节在哪里?

人工智能的构建和监管之间的脱节归结为根本不同的使命。政府出于公共利益进行监管,而人工智能公司(通常由风险投资支持)主要由增长、收入和利润驱动。这些优先事项并不总是相互冲突,但它们经常朝着不同的方向拉扯,监管被视为一种约束,而不是支持。

这产生了一种结构性的紧张关系:监管者和创新者正在以不同的激励、价值观,甚至语言运作。这种紧张关系使得在实践中实现一致性变得困难,即使这并非不可能。我们开始看到一波新的科技公司更紧密地与公共利益目标保持一致,但他们仍然是例外而不是规则——尤其是那些成功扩张的公司。

OpenOrigins 专注于使用加密来源验证内容创建。这种起源优先的方法与发布后安全措施相比有多重要?

这与我之前的回答有关。内容在创建时进行验证,“上游”比尝试在分发或消费时验证内容“下游”更有效。内容在创建时进行验证,就像从农场追溯食物的来源一样,而不是尝试从盘子上的食物中推断。 如果您知道鸡是在哪里养的、如何处理的以及如何通过供应链移动的,您就可以相信您吃的东西。如果您只是通过查看成品尝试推断所有这些,那么您就依赖于猜测。在线上区分人工智能生成的内容和人类创建的内容也是如此:来源验证提供可验证的保证,而下游检测则更不确定、更具反应性。

您如何看待 C2PA 等标准在媒体未来的作用,以及它们是否足以单独恢复在线信任?

C2PA 是一个受欢迎的举措,它支持 OpenOrigins 推动的内容真实性运动。他们是内容安全和内容真实性生态系统的重要组成部分。与每个网络安全工具一样,没有单一的银弹。

对于电影、音乐和游戏等行业的创作者和人才,今天他们应该采取什么实际步骤来保护自己免受未经授权的数字复制?

艺术家今天面临两个不同的风险:他们的作品(如音乐、图像或写作)的复制以及他们的肖像(包括他们的脸、声音和身体)的复制。人工智能系统现在可以在最少的输入下以高保真度复制这两者。在实践中,保护开始于在网上分享内容时要有意图,认识到任何发布的内容都可能被抓取并用于训练数据集,通常没有明确的同意或可见性。

这种风险现在是在线运营的基线现实。但更直接、更可控的风险通常在于合同中。艺术家与他们的合作者、分销商或平台签订的协议可能包含允许人工智能使用、重用或转售内容以进行训练的条款——通常没有对下游收入的有意义的参与。

对于艺术家来说,这使得合同审查至关重要。了解您的作品和肖像如何被使用、许可或改用于其他用途现在与创作过程本身一样重要。当前的辩论(在工会、行业组织和平台中)主要集中在纠正这种不平衡并确保创作者在控制和公平补偿方面保持领先地位。

因此,两个关键的建议:在网上分享内容时要谨慎,并在签署之前仔细阅读您的合同,寻找人工智能条款。

展望未来三到五年,您是否认为我们将达到每个数字内容都必须携带可验证来源的阶段,还是信任将继续在平台和管辖区之间分裂?

我想说是的,但从实际情况来看,五年内不会实现。在科技领域,五年感觉很长;在改变用户行为和习惯方面,五年很短。大多数消费者不太可能根据内容是否带有经过验证的来源来做出决定。平台往往遵循用户需求,优化参与度而不是来源。

这可能会在监管干预的情况下发生变化。我们已经在加利福尼亚等地看到早期迹象出现,标签和审查要求正在出现,但全球范围内扩大这一努力需要时间——可能更接近十年,而不是五年。

变化的另一个领域是特定行业:新闻、金融、保险和医疗保健等行业可能会开始要求来源和验证,因为信任是他们运营的基础。

最后但同样重要的是,消费者可能不会在短期内关心来源信息,但他们可能会关心内容质量和信息质量。如果人工智能生成的内容变得过于同质或“平淡”,观众可能会开始更明显地重视人类创作的内容。这可能会导致市场的分割,一些平台优先考虑规模和人工智能生成的内容,而其他平台则会策划真实性、来源和高信任度的人类主导内容——但这种转变仍然未知。

感谢您的精彩答案,希望了解更多的读者可以访问 OpenOrigins

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。