思想领袖
当 AI 变得反常:在自治代理时代缓解内部威胁

AI 代理的迅速崛起为安全和 IT 团队带来了新的挑战。在向更加自动化的工作流转变的过程中,最近的测试发现,AI 代理在某些条件下可能会表现出不安全或欺骗性的行为,从而为企业带来了新的内部威胁。
这表明组织需要适当地监控访问敏感数据和无人监督运行的 AI 代理,这可能会引入新的风险类别,这些风险更快、更难预测、更难归因。这些风险的现实是双重的。一方面,安全团队需要准备好应对利用 AI 代理加强社会工程攻击的恶意行为者。另一方面,他们必须准备好应对可能表现出创造新安全风险和漏洞的公司内部 AI 代理。
内部 AI 代理如何导致内部威胁
AI 代理在企业网络内存在两个关键的内部安全风险。首先,它们在没有人类固有的道德界限和内置问责制的情况下自治运行。基于推断的目标而不是明确的指令运行,它们的效率和坚持可以突破界限并使它们在未经批准的情况下运行。在没有必要的检查和平衡的情况下,暴露可以轻松创建和忽略。
这些代理也可能访问大量数据,但缺乏区分特权和常规信息的能力。因此,即使是简单的任务,如分析数据集,也可能导致数据泄露或暴露给外部方。这个挑战变得更加复杂,当 AI 跨不同数据规则和协议的多个系统和工作流扩展时。跨区域运行的代理经常违反特定位置的数据处理规则,导致安全风险增加。事实上,只有 30% 的美国企业正在积极地绘制哪些 AI 代理可以访问关键系统,从而创建了一个主要的安全盲点。
外部 AI 代理如何导致内部威胁
恶意行为者和网络犯罪集团使用 AI 代理来增强这些攻击和实施复杂的深度伪造和模仿事件。AI 代理可以创建看起来更真实和可信的钓鱼和社会工程攻击。 60% 的 2024 年的违规事件涉及人类因素,几乎四分之一的事件源于社会工程。这个数字将随着 AI 代理的使用继续增加,因为它们将增强这些进入方法。
AI 代理可以被训练来筛选大量的社交媒体和个人数据,跨平台和渠道发送有针对性和个性化的通信。模仿发送者语气和声音的消息更有可能成功,也更难与真实媒体区分。AI 代理可以学习适应他们的活动,以提高效率,当攻击不起作用时转向或模仿成功的攻击。
当谈到深度伪造时,AI 代理可以以出色的速度生成这些模仿,从而导致大规模操纵。恶意行为者还使用 AI 代理进行实时视频通话,几乎没有延迟,提高可信度。他们可以实时反应目标的反应,如果必要,可以改变他们的方法。这些增强的攻击可以增加内部威胁的风险,因为不知情的员工可能会被欺骗,暴露敏感数据,授权事务或与威胁行为者共享凭据。
安全团队在应对代理 AI 挑战中的作用
安全团队需要采取具体行动来限制 AI 代理创建的盲点。IT 部门首先应该通过数据管理和实时可见性控制来限制 AI 代理访问敏感数据。实现这一目标的步骤包括在 IAM 系统中分类 AI 代理身份,并以与特权帐户相同的严格性监控他们的活动。可见性部分进一步监控网络活动,针对已实施的行为基准分配给 AI 代理。通过可见性,IT 团队可以监控特权访问移动和异常,不仅支持预防工作,还可以加速事件发生时的遏制和恢复工作。
此外,通过识别 AI 代理攻击中使用的新模式和策略,组织可以更新他们的防御策略,并训练他们的安全系统来识别和阻止类似的威胁。
保持领先于 AI 代理引入的内部威胁
事实是,AI 代理引入了一种新型的内部风险,由于它们的自治性和对敏感系统的日益增加的访问。此外,威胁行为者将继续使用 AI 代理来更有效地利用人类的弱点,通过深度伪造、钓鱼和社会工程。
随着该技术的进步,企业需要在采用 AI 代理之前改善他们对 AI 代理的访问和行为的可见性。这包括投资主动、360 度、实时监控,以及 AI 代理工作。虽然 AI 代理可能会解决关键的商业瓶颈和挑战,但它们需要采取主动的方法来限制未来的内部威胁。












