人工智能
AI如何成为头号数据外泄渠道

企业领导者投资了数十亿美元用于AI工具,以加速生产力和创新。但最新数据暴露了一个许多组织未曾预见的严重风险。那些帮助员工提高工作效率的AI平台,本身已成为敏感数据离开企业环境的最大渠道。近期调查显示,77%的员工会将数据粘贴到生成式AI工具中,而上传至这些平台的文件中有40%包含个人身份信息或支付卡数据。这种情况正在大规模发生,遍及那些自认为已部署了适当安全控制措施的组织。这表明,公司认为AI的使用方式与员工日常与这些工具互动时的实际情况之间存在根本性的脱节。理解这一转变是构建符合新现实的安全策略的第一步。
AI如何成为新的数据泄露载体
两年前,生成式AI在企业工作流程中几乎不存在。如今,45%的企业员工积极使用AI平台,企业活动中11%发生在这些工具上。仅ChatGPT一项,员工渗透率就达到了43%,这是其他通信平台花费数十年才达到的普及速度。 这种快速的采用造成了安全真空。传统的数据防泄露系统是为文件传输、电子邮件附件和网络流量设计的。它们从未被设计用于监控员工在提示框中输入或粘贴到聊天界面的内容。这个盲点已成为敏感信息外泄的主要途径。 生成式AI目前占企业账户到个人账户所有数据移动的32%。这使其成为数据外泄的最大单一渠道,超过了文件共享、电子邮件以及安全团队多年来努力保护的所有其他渠道。问题不仅在于数量,还在于泄露的性质。当有人将文档上传到文件服务器时,会有记录。但当他们将客户数据粘贴到AI提示中时,这种传输通常发生在任何日志记录或监控系统之外。
个人账户问题
问题不在于AI工具的使用,而在于员工如何访问这些工具。企业安全模型假设员工使用具有单点登录认证、日志记录和监督的公司账户。数据显示这一假设是错误的,大约67%的AI使用是通过未受管理的个人账户进行的。这些是Gmail地址、个人Microsoft账户或完全绕过公司身份系统的直接注册。当有人使用个人电子邮件登录ChatGPT时,公司无法了解他们提出了什么问题、分享了什么数据,或者回复中可能包含哪些敏感信息。 即使员工使用公司账户,这些凭证也常常缺乏联合身份验证。83%的ERP登录和71%的CRM登录发生在没有单点登录的情况下。这意味着公司登录提供的安全性和可见性几乎不比个人账户多。用户名可能包含公司域名,但认证绕过允许同样不可见的数据流动。
复制与粘贴:无形的数据泄露
传统的数据防泄露策略主要关注文件系统。它们监控上传、下载和附件。但数据显示,数据泄露的真正来源并非文件,而是复制和粘贴。77%的员工会将数据粘贴到生成式AI工具中。82%的此类活动来自未受管理的个人账户。平均而言,每位员工每天使用其个人账户进行15次粘贴操作,其中至少有4次包含敏感的个人身份数据或支付卡信息。 这意味着敏感信息不再仅仅通过文件上传移动。它也被直接注入到提示、聊天窗口和文本字段中。这些无文件的传输对传统的DLP解决方案几乎是不可见的。它们以高频率发生,跨越多个平台,且在企业监督之外。 结果是敏感数据以难以检测的方式持续流出组织。复制和粘贴已成为新的外泄渠道,而AI工具是头号目的地。
敏感文件流向未经批准的目的地
文件上传仍然是企业工作流程的核心部分。但目的地已经改变。员工不再将上传限制在经批准的存储或电子邮件中。他们正在将文件移入生成式AI工具、消费者应用和影子SaaS平台。 数据显示,上传到生成式AI工具的文件中有40%包含个人或财务数据。上传到文件存储平台的文件中有41%包含相同内容。近十分之四的这些上传是通过个人账户进行的。 这意味着敏感数据正流入企业没有可见性和控制权的环境中。一旦文件被上传到个人Google Drive、WhatsApp聊天或AI提示中,它实际上就脱离了企业范围。它无法被跟踪、限制或删除。 目的地多种多样。企业工具如Egnyte和Zendesk与消费者平台如Canva、LinkedIn和WhatsApp并列出现。这种企业生态系统与消费者生态系统的融合模糊了企业数据存储位置的边界。它也暴露了传统DLP的局限性,因为传统DLP是为经批准的渠道和集中控制而设计的。
这对企业安全意味着什么
传统的安全边界已经瓦解。过去,可以通过管理网络、保护端点和监控经批准的应用程序来控制数据。该模型假设工作发生在公司系统内部,仅偶尔通过受控渠道使用外部平台。 现实是,工作现在发生在浏览器中,跨越数十个应用程序,通过公司和个人账户,使用不留下审计痕迹的方法。一名研究客户问题的员工可能会搜索内部系统,将发现粘贴到ChatGPT中进行总结,将该摘要复制到Slack中与同事分享,并通过个人电子邮件转发以供稍后审阅。每一步都涉及敏感数据通过传统工具无法看到的渠道移动。 浏览器已成为主要的工作场所,但安全控制并未跟上。员工整天在不同应用程序之间切换,数据显示他们很少区分公司工具和个人工具。他们使用任何有效、方便、无需等待IT批准的工具。这创造了一个环境,使得敏感信息不断通过无形的渠道向外流动。
为AI时代重新思考企业安全
解决方案不是完全阻止AI工具或禁止个人账户。这些方法会失败,因为它们与员工实际的工作方式相悖。这些工具之所以存在,是因为它们能提高人们的生产力。个人账户激增,是因为公司配置流程缓慢且限制多。忽视这些现实的安全措施只会被绕过。 有效的保护需要在浏览器层面(即工作实际发生的地方)具备可见性。这意味着不仅要监控文件上传,还要监控粘贴操作、表单提交、提示交互以及数据在系统之间移动的所有其他方式。这意味着要强制执行能够区分公司账户和个人账户的策略,无论某人使用哪个应用程序。 组织需要将数据防泄露的范围从文件扩展到包括无文件的传输。提交给ChatGPT的提示应受到与电子邮件附件同等的审查。粘贴到Slack的操作应触发与上传到Google Drive相同的检查。传输方式不应决定是否应用安全措施。 身份控制必须真正得到执行。如果员工仍然可以通过个人账户访问业务应用程序,仅仅提供单点登录是不够的。对于任何处理敏感数据的应用程序,联合身份验证需要是强制性的,而非可选的。非联合的公司登录应被视为它们所代表的安全风险。
核心要点
AI已成为企业软件中增长最快的类别。它也已成为数据外泄的头号渠道。77%的员工会将数据粘贴到AI工具中。40%的上传包含敏感信息。大部分此类活动通过未受管理的账户进行。旧的安全边界已不复存在。大部分工作发生在浏览器中,即使是粘贴文本这样的简单操作也可能导致泄露。不针对这一新现实更新其安全策略的公司,已经正在失去对其最有价值数据的控制。












