AI 101
什么是深度假货?
随着深度赝品变得更容易制作、产量更高,它们受到了更多关注。 Deepfake 已成为涉及人工智能伦理、错误信息、信息和互联网开放以及监管等讨论的焦点。了解 Deepfakes 的相关信息并直观地了解 Deepfakes 是什么是值得的。本文将阐明 Deepfake 的定义,研究其用例,讨论如何检测 Deepfake,并研究 Deepfake 对社会的影响。
什么是 Deepfakes?
在继续进一步讨论深度伪造之前,花一些时间澄清一下会很有帮助 “深度赝品”到底是什么。 “Deepfake”一词存在很大的混淆,并且该术语经常被误用于任何伪造的媒体,无论它是否是真正的 Deepfake。 为了获得 Deepfake 的资格,所涉及的伪造媒体必须使用机器学习系统(特别是深度神经网络)生成。
深度造假的关键要素是机器学习。机器学习使计算机能够相对快速、轻松地自动生成视频和音频。深度神经网络根据真人的镜头进行训练,以便网络了解人们在目标环境条件下的外观和移动方式。然后将经过训练的网络用于另一个人的图像,并通过额外的计算机图形技术进行增强,以便将新人与原始镜头结合起来。使用编码器算法来确定原始面部和目标面部之间的相似度。一旦分离出面部的共同特征,就会使用第二种称为解码器的人工智能算法。解码器检查编码(压缩)图像并根据原始图像中的特征重建它们。使用两个解码器,一个在原始主体的面部,第二个在目标人的面部。为了进行交换,在人 X 的图像上训练的解码器被输入人 Y 的图像。结果是人 Y 的面部是根据人 X 的面部表情和方向重建的。
目前,制作 Deepfake 还需要相当长的时间。 赝品的制作者必须花费很长时间手动调整模型的参数,因为次优参数会导致明显的缺陷和图像故障,从而泄露赝品的真实本质。
尽管人们经常认为大多数深度伪造品都是由一种称为“神经网络”的神经网络制成的 生成对抗网络(GAN),如今创建的许多(也许是大多数)深度伪造品并不依赖于 GAN。 纽约州立大学布法罗分校的 Siwei Lyu 表示,虽然 GAN 确实在早期 Deepfake 的制作中发挥了重要作用,但大多数 Deepfake 视频都是通过替代方法制作的。
训练 GAN 需要大量的训练数据,而且与其他图像生成技术相比,GAN 渲染图像通常需要更长的时间。 GAN 也比视频更适合生成静态图像,因为 GAN 很难保持帧与帧的一致性。 使用编码器和多个解码器来创建深度伪造品更为常见。
Deepfakes 有何用途?
网上发现的许多深度赝品本质上都是色情内容。 根据人工智能公司 Deeptrace 的研究,在 15,000 年 2019 月拍摄的约 95 个 Deepfake 视频样本中,约 XNUMX% 具有色情性质。 这一事实的一个令人不安的暗示是,随着技术变得更容易使用,假复仇色情事件可能会增加。
然而,并非所有深度造假本质上都是色情的。 Deepfake 技术还有更多合法用途。 音频深度伪造技术可以帮助人们在因疾病或受伤而受损或丢失后播放正常的声音。 Deepfakes 还可以用于隐藏处于敏感、潜在危险情况下的人的脸部,同时仍然允许读取他们的嘴唇和表情。 Deepfake 技术可用于改善外语电影的配音,帮助修复旧的和损坏的媒体,甚至创造新的艺术风格。
非视频深度假货
虽然大多数人一听到“deepfake”这个词就会想到假视频,但假视频绝不是唯一一种用 Deepfake 技术制作的假媒体。 Deepfake 技术也用于创建照片和音频伪造品。 如前所述,GAN 经常用于生成假图像。 人们认为,存在许多伪造的 LinkedIn 和 Facebook 个人资料的案例,其中的个人资料图像是使用 Deepfake 算法生成的。
也可以创建音频深度赝品。 深度神经网络经过训练可以生成不同人(包括名人和政客)的声音克隆/声音皮肤。 音频 Deepfake 的一个著名例子是人工智能公司 Dessa 利用人工智能模型, 在非人工智能算法的支持下,重现播客主持人乔·罗根的声音。
如何识别 Deepfakes
随着深度造假变得越来越复杂,将它们与真实媒体区分开来将变得越来越困难。 目前,有 一些明显的迹象 人们可以通过寻找视频来确定视频是否可能是深度伪造的,例如口型不同步、动作不自然、脸部边缘闪烁以及头发、牙齿或倒影等精细细节的扭曲。 深度造假的其他潜在迹象包括同一视频的质量较低的部分以及不规则的眨眼。
虽然这些迹象可能有助于人们目前发现深度造假,但随着深度造假技术的改进,可靠的深度造假检测的唯一选择可能是经过训练以区分假货和真实媒体的其他类型的人工智能。
人工智能公司,包括许多大型科技公司,正在研究检测深度伪造的方法。 去年 XNUMX 月,一场 Deepfake 检测挑战赛启动,得到了亚马逊、Facebook 和微软这三大科技巨头的支持。 来自世界各地的研究团队致力于研究深度伪造的检测方法,竞相开发最佳的检测方法。 其他研究小组,例如谷歌和 Jigsaw 的联合研究人员小组,正在研究一种“面部取证”,可以检测已被更改的视频, 使他们的数据集开源 并鼓励其他人开发深度伪造检测方法。 前面提到的 Dessa 致力于完善 Deepfake 检测技术,试图确保检测模型适用于在野外(互联网上)发现的 Deepfake 视频,而不仅仅是预组合的训练和测试数据集,例如开源数据集谷歌提供。
也有 其他策略 正在调查这些问题,以应对深度造假的扩散。 例如,检查视频与其他信息来源的一致性就是一种策略。 可以搜索可能从其他角度拍摄的事件视频,或者可以检查视频的背景细节(例如天气模式和位置)是否有不一致之处。 超出此, 区块链在线分类账系统 可以在视频最初创建时注册视频,保留其原始音频和图像,以便始终可以检查衍生视频是否被操纵。
最终,重要的是要创建可靠的深度伪造检测方法,并且这些检测方法要跟上深度伪造技术的最新进展。 虽然很难确切知道深度造假会产生什么影响,但如果没有可靠的方法来检测深度造假(以及其他形式的虚假媒体),错误信息可能会猖獗,并降低人们对社会和机构的信任。
Deepfakes 的影响
允许深度造假不受控制地扩散有什么危险?
目前深度造假造成的最大问题之一是未经同意的色情内容,这是通过将人脸与色情视频和图像结合起来而制作的。 人工智能伦理学家担心深度造假会更多地用于制作假复仇色情内容。 除此之外,深度造假还可以用来欺凌和损害几乎任何人的声誉,因为它们可以用来将人们置于有争议和妥协的场景中。
公司和网络安全专家对使用深度造假来促进诈骗、欺诈和勒索行为表示担忧。 据称,深度伪造音频已 用于说服员工 一家公司将钱转移给诈骗者
深度造假可能会产生超出上述范围的有害影响。 Deepfake 可能会普遍削弱人们对媒体的信任,并使人们难以区分真实新闻和假新闻。 如果网络上的许多视频都是假的,政府、公司和其他实体就更容易对合法的争议和不道德的行为产生怀疑。
对于政府而言,深度造假甚至可能对民主的运作构成威胁。 民主要求公民能够根据可靠的信息对政客做出明智的决定。 错误信息破坏了民主进程。 例如,加蓬总统阿里·邦戈出现在一段视频中,试图安抚加蓬公民。 总统被认为在很长一段时间内身体不适,他突然出现在 一段可能是假的视频引发了一场未遂政变。 唐纳德·特朗普总统声称,他吹嘘抓住女性生殖器的录音 是假的,尽管也将其描述为“更衣室谈话”。 安德鲁王子也 声称艾米丽·迈蒂利斯的律师提供的图片是假的,尽管律师坚持其真实性。
最终,虽然深度造假技术有合法用途,但滥用该技术可能会产生许多潜在危害。 因此,创建和维护确定媒体真实性的方法极其重要。