Connect with us

人工智能

对抗深度伪造和图像合成系统的图像编码

mm

反深度伪造研究领域中最著名的研究方向涉及可以识别深度伪造、合成或篡改的面部图像和视频内容中伪造或编辑的面部的系统。这种方法使用各种策略,包括 深度检测视频规则破坏监视器照明变化(在潜在的深度伪造视频通话中)、生物特征外部面部区域,甚至人类潜意识系统的 隐藏力量。这些方法和类似方法的共同点是,当它们被部署时,中心机制已经在成千上万或数十万张从网络上爬取的图像上成功训练过——这些图像可以让自动编码器系统轻松推导出关键特征,并创建可以准确地将虚假身份强加于视频或合成图像的模型——甚至可以 实时 进行。简而言之,当这些系统被激活时,马已经逃脱了。

敌对深度伪造/合成架构的图像

通过对深度伪造和图像合成威胁采取更 预防性 的态度,反深度伪造研究领域中一个不太知名的研究方向涉及使所有这些源图像 不友好 向人工智能图像合成系统,通常以微妙或几乎无法察觉的方式。例如,FakeTagger,2021年来自美国和亚洲各机构的提议,将消息编码到图像中;这些编码能够抵抗概括化的过程,并可以在图像被从网络上爬取并训练成一种生成对抗网络(GAN)之后被恢复,这种网络最著名的体现是thispersondoesnotexist.com及其 众多衍生品
[…]

TAFIM

现在,德国的一个新研究工作(来自慕尼黑工业大学和索尼欧洲研发中心斯图加特)提出了一个图像编码技术,通过该技术训练在处理过的图像上的深度伪造模型或StyleGAN类型的框架将产生无法使用的蓝色或白色输出。
[…]

重新编码网络..?

然而,在这种情况下,我们不是来检查这个概念的细节和架构,而是要考虑整个想法的可行性——特别是在关于使用公开可用图像来为图像合成框架(如 Stable Diffusion)提供动力的日益增长的争议,以及随之而来的法律影响。
[…]

政治冲突

在政治方面,政府不愿意在人工智能发展中落后,并对公开可用的音频、视频和图像内容的使用表示担忧,这些内容被用作转化人工智能系统的丰富资源。
[…]

随意检查

虽然有人提议使用区块链方法来验证可能被纳入训练数据集的源图像的真实来源和外观,但这本身并不能防止图像的训练,也没有办法证明输出的图像是否包含这些训练图像。
[…]

在源头嵌入水印

源图像水印的一个更极端的潜在应用是将隐藏和不明显的信息包含在商业相机的原始捕获输出、视频或图像中。尽管这个概念在 2000 年初被实验和实施过,但它在技术上也适用于使媒体内容对机器学习训练系统具有抵抗力或排斥性。
[…]
首次发布于 2022 年 9 月 25 日。

机器学习作家,人类图像合成领域专家。曾任 Metaphysic.ai 研究内容负责人。
个人网站: martinanderson.ai
联系: [email protected]
Twitter:@manders_ai