Connect with us

人工智能

欺骗性AI:在犯罪计划中利用生成模型

mm
Discover how generative AI, including models like GPT-3 and DALL-E, is being exploited by cybercriminals for phishing, frauds, and deepfakes

生成AI,人工智能的一个子集,已经迅速获得了人们的关注,因为它能够从大量数据中生成各种形式的内容,包括类似人类的文本、逼真的图像和音频。像GPT-3DALL-E生成对抗网络(GANs)这样的模型已经展示了他们在这方面的卓越能力。

一份德勤报告强调了生成AI的双重性质,并强调了需要对欺骗性AI保持警惕。虽然AI的进步有助于预防犯罪,但也使恶意行为者得以利用。尽管有合法的应用,但这些强大的工具正被网络犯罪者、诈骗者和国家支持的行为者所利用,导致复杂和欺骗性的计划激增。

生成AI在犯罪活动中的崛起

生成AI的崛起已经导致欺骗性活动的增加,这影响了网络空间和日常生活。钓鱼,一种用来欺骗个人泄露敏感信息的技术,现在利用生成AI使钓鱼邮件非常具有说服力。随着ChatGPT变得更加流行,钓鱼邮件也增加了,犯罪者使用它来创建个性化的消息,看起来像合法的通信。

这些邮件,例如假的银行警报或诱人的优惠,利用人类心理学来欺骗收件人泄露敏感数据。虽然OpenAI禁止其模型的非法使用,但执行起来并不容易。无害的提示可以轻松转变为恶意计划,需要人类审查员和自动化系统来检测和防止滥用。

同样,金融诈骗也随着AI的进步而增加。生成AI助长了诈骗,制造出能够欺骗投资者和操纵市场情绪的内容。想象一下遇到一个聊天机器人,看起来像人类,但专门设计用于欺骗。生成AI赋予了这些机器人与用户进行看似真实的对话的能力,同时提取敏感信息。生成模型还增强了社会工程攻击,通过编制个性化的消息来利用信任、同情和紧急感。受害者成为要求钱、机密数据或访问凭证的对象。

人肉搜索,即泄露个人信息,是生成AI帮助犯罪者另一个领域。不论是揭露匿名的在线人物还是泄露私人细节,AI都放大了影响,导致了身份盗窃和骚扰等现实世界的后果。

然后还有深度伪造,即AI生成的逼真视频、音频片段或图像。这些数字化的替身模糊了现实和虚构的界限,构成了从政治操纵到人格暗杀的风险。

具有重要影响的深度伪造事件

生成AI的滥用导致了一系列不寻常的事件,凸显了当这种技术落入错误的人手中时所构成的重大风险和挑战。特别是深度伪造技术,它模糊了现实和虚构之间的界限。深度伪造是GANs和创造性恶意的结合,GANs由两个神经网络组成:生成器和判别器。生成器创建越来越逼真的内容,例如面部,而判别器则试图发现假的内容。

已经发生了多起值得注意的涉及深度伪造的事件。例如,Dessa利用AI模型创建了一个令人信服的乔·罗根语音克隆,展示了AI生产真实假声音的能力。深度伪造也对政治产生了重大影响,如各种例子所示。例如,一条机器人电话冒充美国总统乔·拜登,误导了新罕布什尔州的选民,而在斯洛伐克的AI生成音频录音冒充了一位自由派候选人,以影响选举结果。许多类似的事件已被报道,影响了许多国家的政治。

金融诈骗也利用了深度伪造。英国一家名为Arup的工程公司成为2000万英镑深度伪造诈骗的受害者,诈骗者在视频通话中使用AI生成的声音和图像来冒充公司高管。这凸显了AI在金融诈骗中的潜力。

网络犯罪者越来越多地利用生成AI工具,如WormGPT和FraudGPT,来增强他们的攻击,构成了重大网络安全威胁。WormGPT基于GPT-J模型,促进恶意活动而无需道德限制。SlashNext的研究人员使用它来制作一个非常有说服力的欺诈性发票电子邮件。FraudGPT在Telegram频道上流传,旨在进行复杂的攻击,可以生成恶意代码,创建令人信服的钓鱼页面,并识别系统漏洞。这些工具的兴起凸显了网络威胁日益复杂和迫切需要增强安全措施的必要性。

法律和伦理影响

AI驱动的欺骗的法律和伦理影响提出了一个艰巨的任务,尤其是在生成模型快速发展的背景下。目前,AI运作在一个监管灰色区域,政策制定者难以跟上技术发展的步伐。迫切需要强大的框架来限制滥用并保护公众免受AI驱动的诈骗和欺诈活动的影响。

此外,AI创造者也承担着伦理责任。透明度、披露和遵守指南是负责任的AI开发的基本方面。开发者必须预测潜在的滥用,并制定措施使其AI模型有效地减轻风险。

在应对AI驱动的欺诈挑战时,平衡创新与安全至关重要。过度监管可能会限制进步,而放松监督则会导致混乱。因此,促进创新而不损害安全的法规对于可持续发展至关重要。

此外,AI模型应以安全和伦理为设计理念。整合偏差检测、鲁棒性测试和对抗性训练等功能可以增强对恶意利用的抵抗力。这在AI驱动的诈骗日益复杂的背景下尤为重要,强调了预见性和监管的灵活性,以保护免受生成AI模型的欺骗潜力。

缓解策略

解决AI驱动的生成模型欺骗性使用的缓解策略需要采取多方面的方法,包括改进安全措施和利益相关者之间的合作。组织必须雇用人类审查员来评估AI生成的内容,利用他们的专业知识来识别滥用模式并改进模型。配备有先进算法的自动化系统可以扫描与诈骗、恶意活动或虚假信息相关的红旗,作为早期预警系统来防止欺诈行为。

此外,科技公司、执法机构和政策制定者之间的合作对于检测和防止AI驱动的欺骗至关重要。科技巨头必须分享见解、最佳实践和威胁情报,而执法机构则与AI专家密切合作以领先于犯罪者。政策制定者需要与科技公司、研究人员和民间社会合作,创建有效的法规,强调国际合作在打击AI驱动的欺骗中的重要性。

展望未来,生成AI和犯罪预防的未来充满了挑战和机遇。随着生成AI的演进,犯罪策略也将随之演进,量子AI、边缘计算和去中心化模型的进步将塑造这一领域。因此,关于道德AI开发的教育变得越来越重要,学校和大学被敦促将伦理课程作为AI从业者的必修课。

结论

生成AI既带来了巨大的好处,也带来了重大风险,凸显了迫切需要强大的监管框架和伦理AI开发的必要性。随着网络犯罪者利用先进工具,有效的缓解策略,如人类监督、先进的检测算法和国际合作,是必不可少的。

通过平衡创新与安全,促进透明度,并设计具有内置安全保障的AI模型,我们可以有效地应对日益增长的AI驱动的欺骗威胁,并为未来创造一个更安全的技术环境。

阿萨德·阿巴斯博士(Dr. Assad Abbas)是巴基斯坦伊斯兰堡COMSATS大学的终身副教授,他在美国北达科他州立大学获得了博士学位。他的研究重点是包括云计算、雾计算、边缘计算、大数据分析和人工智能在内的先进技术。阿巴斯博士在著名的科学期刊和会议上发表了大量的论文,并做出了重要的贡献。他也是 MyFastingBuddy 的创始人。