人工智能
深度伪造和 AI:来自 Pindrop 的 2024 年语音智能和安全报告的见解
人工智能(AI)的快速发展为各个行业带来了显著的益处和变革,但也引入了新的风险和挑战,特别是在 欺诈 和 安全 方面。 深度伪造 ,作为生成式 AI 的产物,变得越来越复杂,对语音基础安全系统的完整性构成重大威胁。
Pindrop 的 2024 年语音智能和安全报告 的发现强调了深度伪造对各个行业的影响、推动这些威胁的技术进步以及正在开发的创新解决方案来应对它们。
深度伪造的崛起:双刃剑
深度伪造利用先进的 机器学习算法 创建高度逼真的 合成音频和视频内容 。虽然这些技术在娱乐和媒体领域有着令人兴奋的应用,但也带来了严重的安全挑战。根据 Pindrop 的报告,美国消费者最担心的是深度伪造和语音克隆在银行和金融领域的风险,67.5% 的人表示非常担心。
对金融机构的影响
金融机构尤其容易受到深度伪造攻击 。诈骗者使用 AI 生成的声音来冒充个人,未经授权访问账户,并操纵金融交易。报告显示,2023 年有创纪录的数据泄露事件,共计 3,205 起事件,比前一年增加了 78% 。美国数据泄露的平均成本现在达到 9,500 万美元,呼叫中心承担了安全事故的主要责任。
一个值得注意的案例是使用 深度伪造声音欺骗一家香港公司转账 2,500 万美元 ,这凸显了这些技术在恶意使用时的毁灭性潜力。
对媒体和政治的更广泛威胁
除了金融服务外, 深度伪造也对媒体和政治机构构成重大风险 。创建令人信服的假音频和视频内容的能力可以用来传播虚假信息,操纵公众舆论,并破坏民主进程的信任。报告指出,54.9% 的消费者担心深度伪造对政治机构的威胁,而 54.5% 的人担心其对媒体的影响。
2023 年,深度伪造技术被用于几起高调事件,包括使用 合成拜登总统声音的机器人呼叫攻击 。这些事件凸显了开发强大的检测和预防机制的紧迫性。
推动深度伪造的技术进步
生成式 AI 工具的普及,例如 OpenAI 的 ChatGPT、Google 的 Bard 和 Microsoft 的 Bing AI,显著降低了创建深度伪造的门槛。今天,超过 350 个生成式 AI 系统被用于各种应用,包括 Eleven Labs、Descript、Podcastle、PlayHT 和 Speechify。例如,Microsoft 的 VALL-E 模型可以从仅 3 秒的音频片段中克隆一个声音。
这些技术进步使得深度伪造的制作变得更便宜、更容易,增加了其对良性用户和恶意行为者的可及性。到 2025 年, Gartner 预测 ,80% 的对话式 AI 产品将整合生成式 AI ,高于 2023 年的 20% 。
对抗深度伪造:Pindrop 的创新
为了应对日益增长的深度伪造威胁,Pindrop 推出了几项尖端解决方案。其中最值得注意的是 Pulse 深度伪造保修 ,这是业界首个保修,如果 Pindrop 的产品套件无法检测到深度伪造或其他合成语音欺诈,将为合格的客户提供赔偿。这一举措旨在为客户提供安心,同时推动欺诈检测能力的发展。
增强安全的技术解决方案
Pindrop 的报告强调了其活体检测技术的有效性,该技术分析实时电话呼叫以识别语音是否为“活体”或合成。在内部测试中,Pindrop 的活体检测解决方案在识别合成语音方面比语音识别系统更准确 12% ,比人类更准确 64% 。
此外,Pindrop 采用集成的多因素欺诈预防和认证,利用语音、设备、行为、运营商元数据和活体信号来增强安全性。这一多层次的方法显著提高了欺诈者的门槛,使得他们更难成功。
未来趋势和准备
展望未来, 报告预测 ,深度伪造欺诈将继续上升,对美国呼叫中心构成 50 亿美元的风险。文本转语音系统的日益复杂化,加上低成本的合成语音技术,带来了持续的挑战。
为了应对这些威胁,Pindrop 建议采用早期风险检测技术,例如呼叫者 ID 欺骗检测和持续欺诈检测,以实时监控和减轻欺诈活动。通过实施这些先进的安全措施,组织可以更好地保护自己免受 AI 驱动的欺诈日益演变的威胁。
结论
深度伪造和生成式 AI 的出现代表着欺诈和安全领域的一项重大挑战。Pindrop 的 2024 年语音智能和安全报告强调了开发创新解决方案以应对这些威胁的紧迫需要。凭借活体检测、多因素认证和全面欺诈预防策略的进步,Pindrop 正处于应对这些威胁的努力的前沿。随着技术格局的不断演变,我们的安全保障方法也必须随之演变,以确保数字时代的安全和信任。












