Connect with us

人工智能

AI 浏览器工具旨在识别 Deepfakes 和其他虚假媒体

mm

近期,科技公司为应对虚假信息和虚假内容的努力正在加速,像 DeepFakes 这样的高级虚假内容生成技术变得更容易使用和更精致。为了帮助人们检测和抵制深度伪造,一家名为 AI Foundation 的公司正在开发一个名为 RealityDefender 的工具,致力于开发符合道德的 AI 代理和助手,用户可以训练它们完成各种任务。AI Foundation 最著名的项目是一个允许人们创建自己的数字化身的平台,这些数字化身看起来像他们,并在虚拟社交空间中代表他们。AI Foundation 由全球 AI 委员会监督,作为他们的职责,他们必须预测 AI 平台可能带来的负面影响,然后尝试解决这些问题。 根据 VentureBeat 的报道,AI Foundation 创建的一个用于检测深度伪造的工具被称为 Reality Defender。Reality Defender 是一个可以在网页浏览器中使用的工具,它将分析视频、图像和其他类型的媒体,以检测媒体是否被伪造或以某种方式修改的迹象。希望这个工具可以帮助抵制互联网上日益增长的深度伪造流量,根据一些估计,过去六个月中,深度伪造的数量大约翻倍。Reality Defender 通过使用各种基于 AI 的算法来检测图像或视频可能被伪造的线索。AI 模型检测微妙的欺骗和操纵迹象,模型检测到的假阳性被工具的用户标记为不正确,然后使用这些数据来重新训练模型。创建非欺骗性深度伪造的 AI 公司将他们的内容标记为“诚实 AI”标签或水印,让人们可以轻松识别 AI 生成的伪造品。Reality Defender 只是 AI Foundation 尝试创建的一个工具套件和整个 AI 责任平台的一部分。AI Foundation 正在开发一个名为 Guardian AI 的责任平台,建立在个人应该可以访问为他们工作的个人 AI 代理,并且可以帮助防止他们被不法行为者利用的原则上。基本上,AI Foundation 旨在同时扩大 AI 在社会中的影响范围,将其带给更多的人,同时也要防止 AI 带来的风险。Reality Defender 并不是唯一一个旨在减少美国虚假信息的新 AI 驱动产品。一个类似的产品被称为 SurfSafe,由两个来自 UC Berkeley 的本科生 Rohan Phadte 和 Ash Bhat 创建。 根据 The Verge 的报道,SurfSafe 通过允许用户点击他们感兴趣的媒体,然后程序将执行反向图像搜索,并尝试从互联网上的各种可信来源找到类似的内容,标记已知被篡改的图像。目前尚不清楚这些解决方案在长期内将会有多大的效果。达特茅斯学院教授和法医专家 Hany Farid 被 The Verge 引用 说,他“极度怀疑”像 Reality Defender 这样的系统能够有效地工作。Farid 解释说,检测虚假内容的一个关键挑战是媒体并不完全是虚假或真实的。Farid 解释说:“这是一个连续体;一个令人难以置信的复杂问题。有些改变是无意义的,而有些则从根本上改变了图像的性质。假装我们可以训练 AI 来识别差异是非常天真的。并且假装我们可以众包它更加天真。”此外,加入众包元素(如标记假阳性)是困难的,因为人类通常很难识别虚假图像。人类经常犯错误,错过标记图像为虚假的微妙细节。也不清楚如何处理那些标记内容的不良行为者。似乎,为了最大限度地发挥作用,虚假检测工具需要与数字素养教育相结合,教人们如何推理他们在线互动的内容。

博客作者和程序员,专攻 Machine Learning Deep Learning 领域。Daniel 希望帮助他人利用 AI 的力量为社会做好事。