Connect with us

人工智能

AI 专家根据危险级别对 Deepfakes 和其他 19 种 AI 基础犯罪进行排名

mm

一份新的 报告 由伦敦大学学院发布,旨在识别 AI 可能在未来 15 年内以各种方式协助罪犯的方法。该报告邀请了 31 位不同的 AI 专家,对 20 种使用 AI 进行犯罪的方法进行排名,根据诸如犯罪的易犯性、潜在的社会危害、犯罪的利润以及犯罪的难以阻止程度等因素进行评估。根据报告的结果,Deepfakes 对法治社会和公民构成了最大的威胁,因为它们被犯罪者和恐怖分子利用的潜力很高。

AI 专家将 Deepfakes 排在潜在 AI 威胁的首位,因为 Deepfakes 难以识别和对抗。Deepfakes 不断改进,甚至可以欺骗深度伪造专家和其他 AI 基础的深度伪造检测方法。就其危害能力而言,Deepfakes 可以被不法分子用来破坏可信的专家人物或冒充可信的个人来欺骗他人。如果 Deepfakes 流行,人们可能会开始对任何音频或视频媒体失去信任,这可能会使他们对真实事件和事实的有效性失去信仰。

伦敦大学学院计算机科学系的 Matthew Caldwell 博士是该论文的第一作者。Caldwell 强调了 Deepfakes 的危险性,因为我们的活动越来越多地转移到在线。 如 UCL News 所言:

“与许多传统犯罪不同,数字领域的犯罪可以轻松共享、重复,甚至出售,使得犯罪技术可以被营销和犯罪可以作为一种服务提供。这意味着罪犯可能能够外包他们的 AI 基础犯罪的更具挑战性的方面。”

专家团队将五种其他新兴 AI 技术评为高度令人担忧的潜在犯罪催化剂:将自动驾驶车辆用作武器、对 AI 控制系统和设备的黑客攻击、在线数据收集用于勒索、具有自定义消息的 AI 基础钓鱼以及一般的虚假新闻/错误信息。

根据 Shane Johnson 的说法,UCL 未来犯罪中心主任,该研究的目标是识别新兴技术相关的潜在威胁并假设如何预测这些威胁。Johnson 说,随着技术变化的速度增加,“我们必须预测未来犯罪威胁,以便政策制定者和其他有能力采取行动的利益相关者可以在新‘犯罪收获’发生之前采取行动”。

关于列表中的其他 14 种可能的犯罪,它们被分为两类:中等关注和低关注。

中等关注的 AI 犯罪包括军用机器人滥用、数据中毒、自动攻击无人机、基于学习的网络攻击、在线活动的拒绝服务攻击、操纵金融/股票市场、蛇油(以 AI/ML 术语为掩护的欺诈服务销售)和欺骗面部识别。

低关注的 AI 基础犯罪包括艺术或音乐伪造、AI 协助跟踪、由 AI 撰写的虚假评论、规避 AI 检测方法和“入室盗窃机器人”(闯入人们家中窃取东西的机器人)。

当然,AI 模型本身可以用来帮助打击一些犯罪。最近,AI 模型被部署来帮助 检测钱 laundering 方案,检测可疑的金融交易。结果由人类操作员分析,然后批准或拒绝警报,并使用反馈来更好地训练模型。未来可能涉及 AI 与 AI 的对抗,犯罪者试图设计他们最好的 AI 辅助工具,而安全、执法和其他道德 AI 设计师试图设计他们最好的 AI 系统。

博客作者和程序员,专攻 Machine Learning Deep Learning 领域。Daniel 希望帮助他人利用 AI 的力量为社会做好事。