关注我们.

人工智能

欺骗性人工智能:在犯罪计划中利用生成模型

mm

发布时间

 on

了解生成式 AI(包括 GPT-3 和 DALL-E 等模型)如何被网络犯罪分子用于网络钓鱼、欺诈和深度伪造

生成式人工智能,一个子集 人工智能,由于其从大量数据集中生成各种形式的内容(包括类人文本、逼真图像和音频)的卓越能力而迅速获得关注。型号如 GPT-3, DALL-E生成对抗网络(GAN) 在这方面表现出了非凡的能力。

A 德勤报告 强调了生成式人工智能的双重性质,并强调需要对欺骗性人工智能保持警惕。虽然人工智能的进步有助于预防犯罪,但它们也为恶意行为者提供了帮助。尽管应用合法,但这些强大的工具越来越多地被网络犯罪分子、欺诈者和国家附属行为者利用,导致复杂和欺骗性计划激增。

生成式人工智能在犯罪活动中的兴起

生成式人工智能的兴起导致影响网络空间和日常生活的欺骗活动增加。 網絡釣魚是一种诱骗个人泄露敏感信息的技术,现在利用生成式人工智能使网络钓鱼电子邮件变得非常可信。随着 ChatGPT 变得越来越流行,网络钓鱼电子邮件也随之增加,犯罪分子利用它来创建看似合法通信的个性化消息。

这些电子邮件(例如虚假的银行警报或诱人的优惠)利用人类心理来欺骗收件人泄露敏感数据。虽然 OpenAI 禁止非法使用其模型,但执行起来并不容易。无辜的提示很容易变成恶意计划,需要人工审核人员和自动化系统来检测和防止滥用。

同样,随着人工智能的进步,金融欺诈也随之增加。生成式人工智能助长诈骗,创造欺骗投资者并操纵市场情绪的内容。想象一下遇到一个 聊天机器人,显然是人类的,但只是为了欺骗而设计的。生成式人工智能为这些机器人提供动力,让用户参与看似真实的对话,同时提取敏感信息。生成模型还增强了 社会工程学攻击 通过利用信任、同理心和紧迫感来制作个性化消息。受害者会成为索取金钱、机密数据或访问凭证的受害者。

Doxxing涉及泄露个人信息,是生成式人工智能协助犯罪分子的另一个领域。无论是揭露匿名在线角色还是暴露私人详细信息,人工智能都会放大影响,导致现实世界的后果,例如身份盗窃和骚扰。

然后有 deepfakes、人工智能生成的逼真视频、音频剪辑或图像。这些数字相似者模糊了现实,带来了从政治操纵到人格暗杀的风险。

具有重大影响的著名 Deepfake 事件

生成式人工智能的滥用导致了一系列不寻常的事件,凸显了这项技术落入坏人之手时所带来的巨大风险和挑战。尤其是 Deepfake 技术,模糊了现实与虚构之间的界限。 Deepfakes 是 GAN 和创造性恶意结合的结果,混合了真实和虚构的元素。 GAN 由两个组成 神经网络提供两款控制器:一款是 生成器和判别器。生成器创建越来越真实的内容,例如面孔,而鉴别器则试图识别假货。

涉及深度造假的著名事件已经发生。例如, 这些 利用人工智能模型创建了令人信服的乔·罗根语音克隆,展示了人工智能产生逼真假声音的能力。正如各种例子所示,深度造假也对政治产生了重大影响。例如,一个 robocall 冒充美国总统乔·拜登误导新罕布什尔州选民,而 斯洛伐克人工智能生成的录音 冒充自由派候选人影响选举结果。据报道,发生了几起影响许多国家政治的类似事件。

金融诈骗也利用了深度造假。 A 英国工程 一家名为 Arup 的公司成为价值 20 万英镑的 Deepfake 骗局的受害者,其中一名财务工作人员在与欺诈者使用人工智能生成的声音和图像冒充公司高管的视频通话中被骗转移资金。这凸显了人工智能进行金融欺诈的潜力。

网络犯罪分子越来越多地利用生成式人工智能工具,例如 WormGPT 和 FraudGPT 加强他们的攻击,造成重大的网络安全威胁。 WormGPT基于GPT-J模型,为恶意活动提供了便利,不受道德限制。 SlashNext 的研究人员使用它制作了一封极具说服力的欺诈性发票电子邮件。在 Telegram 频道上流传的 FraudGPT 专为复杂攻击而设计,可以生成恶意代码、创建令人信服的网络钓鱼页面并识别系统漏洞。这些工具的兴起凸显了网络威胁的日益复杂性以及增强安全措施的迫切需要。

法律和道德影响

在生成模型的快速发展中,人工智能驱动的欺骗的法律和道德影响提出了一项艰巨的任务。目前,人工智能处于监管灰色地带,政策制定者需要帮助才能跟上技术发展的步伐。迫切需要强大的框架来限制滥用并保护公众免受人工智能驱动的诈骗和欺诈活动的侵害。

此外,人工智能创造者还承担道德责任。透明度、披露和遵守准则是负责任的人工智能开发的重要方面。开发人员必须预见潜在的滥用情况,并为其人工智能模型制定措施,以有效降低风险。

保持创新与安全之间的平衡对于应对人工智能驱动的欺诈带来的挑战非常重要。过度监管可能会抑制进步,而宽松的监管则会引发混乱。因此,在不损害安全的情况下促进创新的法规对于可持续发展势在必行。

此外,人工智能模型的设计应考虑安全和道德。结合偏差检测、鲁棒性测试和对抗训练等功能可以增强针对恶意利用的抵御能力。鉴于人工智能驱动的诈骗日益复杂,这一点尤为重要,强调需要道德远见和监管灵活性,以防范生成人工智能模型的欺骗潜力。

缓解策略

解决人工智能驱动的生成模型的欺骗性使用的缓解策略需要采取多方面的方法,包括改进安全措施和利益相关者之间的协作。组织必须聘请人工审核员来评估人工智能生成的内容,利用他们的专业知识来识别滥用模式并完善模型。配备先进算法的自动化系统可以扫描与诈骗、恶意活动或错误信息相关的危险信号,作为针对欺诈行为的预警系统。

此外,科技公司、执法机构和政策制定者之间的合作对于检测和防止人工智能驱动的欺骗至关重要。科技巨头必须分享见解、最佳实践和威胁情报,而执法机构必须与人工智能专家密切合作,以领先于犯罪分子。政策制定者需要与科技公司、研究人员和民间社会合作制定有效的法规,强调国际合作在打击人工智能驱动的欺骗行为方面的重要性。

展望未来,生成式人工智能和犯罪预防的未来充满挑战和机遇。随着生成式人工智能的发展,犯罪策略也会不断发展,并取得进步 量子人工智能、边缘计算和分散模型正在塑造这一领域。因此,对人工智能道德发展的教育变得越来越重要,学校和大学被敦促将道德课程作为人工智能从业者的必修课。

底线

生成式人工智能既带来了巨大的好处,也带来了巨大的风险,凸显了对强有力的监管框架和道德人工智能发展的迫切需要。随着网络犯罪分子利用先进工具,有效的缓解策略(例如人工监督、先进检测算法和国际合作)至关重要。

通过平衡创新与安全、提高透明度以及设计具有内置保障措施的人工智能模型,我们可以有效应对人工智能驱动的欺骗日益增长的威胁,并确保未来有一个更安全的技术环境。

阿萨德·阿巴斯博士 终身副教授 在巴基斯坦伊斯兰堡 COMSATS 大学获得博士学位。 来自美国北达科他州立大学。 他的研究重点是先进技术,包括云、雾和边缘计算、大数据分析和人工智能。 阿巴斯博士在著名的科学期刊和会议上发表文章,做出了重大贡献。