思想领袖
GenAI 的广泛影响正使您的企业数据面临风险

生成式人工智能 (GenAI) 解决方案不再仅仅是企业员工的“试用”对象,而是正以越来越快的速度被采用并融入到日常工作中。据一份报告显示,40% 的组织 据报道,GenAI 已应用于日常工作流程中。 过去一年中,超过 80% 的用户表示他们每周都会使用这些工具。
但尽管人工智能的应用日益普及,其可见性和控制力却未能跟上步伐。随着GenAI嵌入到 电子邮件收件箱代码编辑器、协作套件、虚拟助手等等,它通过提示、上传和复制粘贴操作,使用户能够访问越来越多的敏感数据——所有这些都可能绕过传统的控制措施。
其结果是影子数据池不断扩大:关键业务信息在 SaaS、云和本地服务之间流动,而可见性、治理或保留方面的保障措施却十分有限。为了可持续且安全地利用人工智能解决方案进行创新,现代企业必须了解这种采用与控制之间的差距,并在影子数据失控之前学会对其进行处理。
GenAI 的广阔而模糊的阴影
影子数据的核心挑战源于缺乏上下文信息。影子IT的挑战通常局限于静态文件、已获授权的应用程序和已知的出口点,而人工智能驱动的影子数据的边界则远没有那么清晰。团队不仅需要发现和保护未知工具,还需要监控集成到已获批准的应用程序(例如电子邮件平台、云存储解决方案和客户关系管理系统)中的人工智能模型。这颠覆了他们一直以来使用和监控的“安全”解决方案,并拓宽了他们面临的威胁形势。
GenAI 还改变了敏感数据在企业架构中的流动方式。与传统 SaaS 解决方案基于应用程序和文件的工作流程不同,它运行在一个持续的对话层上,鼓励用户分享上下文信息以获得更好的结果。这导致用户执行例行的复制粘贴和上传操作,其中可能包含源代码片段、客户记录、内部文档等等,而所有这些数据都缺乏与其敏感级别相匹配的适当数据共享管理。
此外,GenAI 的应用往往并非遵循清晰集中的模式。没有两个企业数据用户是完全相同的,他们对优化工作流程和节省时间的自动化需求,可能会促使他们使用多种 AI 解决方案,而这反过来又会造成数据路径更加分散。如果这种情况扩展到企业的所有员工,那么其影响范围将变得极其广泛。
为什么阻止 GenAI 行不通
面对这些威胁,许多组织的第一反应是直接封锁或严格限制对 GenAI 工具的访问。虽然这种做法可以理解,但往往不如企业预期那样有效。一旦 GenAI 工具被“放出瓶子”,就很难再将其控制住。许多员工利用这些工具简化日常工作流程,并将 GenAI 融入到任务规划和执行中。
当上级限制访问权限时,使用情况不太可能停止;它只会转移到不为人知的地方。如果员工切换到个人账户或非托管账户,企业将完全失去对应用程序共享和保留哪些数据的可见性。事实上,一份报告发现: 44%的员工 已经有人以违反政策和准则的方式使用人工智能,而另一项研究报告称: 75%的员工 使用未经批准的人工智能工具的人员承认曾与这些工具共享潜在的敏感信息。当出于好意的员工在不知情的情况下绕过安全措施,导致敏感数据离开受监管的环境并进入控制不明确的系统时,就会造成严重的内部风险,这可能会给组织带来巨大的损失。 平均每年19.5万美元通过将用户活动进一步推向不受管理的浏览器、个人云帐户或小众 AI 工具,企业创造了更多安全团队可能永远无法发现的威胁载体。
由此可见,影子数据并非仅仅是滥用人工智能工具的员工所致,而是通用人工智能(GenAI)易于上手的设计、对上下文的需求以及其普遍应用所导致的结构性后果。除非企业能够重新掌握影子数据的流动方式和去向,否则通用人工智能的普及速度将继续超过企业管理其风险的能力。
通过可见性和保护消除阴影数据
虽然完全阻止 GenAI 解决方案不太可能奏效,但企业可以通过采取以下三个核心措施来支持人工智能创新,同时阻止影子数据的扩散:
1. 建立端到端可视性
企业必须先准确了解自身面临的情况,才能有效保护其数据生态系统。这首先需要全面了解员工正在使用哪些 GenAI 应用,包括那些嵌入在授权工具中的应用。此外,还需要了解与这些应用共享的数据类型——财务数据、知识产权、个人身份信息 (PII)、受保护的健康信息 (PHI) 或其他受监管信息——以及数据在本地、SaaS 和云网络中的传输路径。如果缺乏这些关键信息,安全和合规团队只能依靠假设来管理,而无法准确掌握员工的实际行为。
2. 应用情境感知数据保护策略
如果控制措施无法适应 GenAI 的使用方式,仅靠可见性是不够的。传统的“允许或阻止”策略对于需要持续对话式数据交换的 AI 工作流程来说过于僵化。为了有效保护这些解决方案,团队必须创建能够实时评估用户、数据和目标位置的上下文感知策略。这样一来,就可以针对用户行为采取切实可行的措施,例如阻止风险上传、在敏感信息离开环境之前对其进行编辑,或指导员工尝试更安全的替代方案。与完全中断或人工干预相比,这些自动化防护措施可以更有效地融入日常任务中,从而在不影响生产力的前提下提高 GenAI 使用的安全性。
3. 确保政策执行的一致性
企业必须在所有工作环境中强制执行一套统一的数据保护策略,同时避免迫使团队放弃他们已经依赖的工具。他们不应该“推倒重来”,因为这会严重影响生产力。相反,他们应该建立统一的策略,将数据和用户同步应用于云存储、协作平台、SaaS 应用和 GenAI 助手等各个平台。这种一致性将降低风险和摩擦,使安全团队无需管理分散的控制措施,并使员工能够在可预测的安全保障下工作,而不是面临意外的封禁。最终,积极主动且一致的应对措施将比被动应对且分散的措施更加有效。
支持安全可持续的收养
基因人工智能(GenAI)工具已迅速融入日常工作流程,企业无法再将其视为小众或实验性风险。它们既不能被忽视,也不能被彻底摒弃。相反,企业必须探索一条既能支持创新性人工智能应用,又能避免敏感数据在数据生态系统中潜移默化、缺乏保护的路径。成功并非在于抑制其应用,而在于通过持续、情境化和一致的数据保护,确保数据在流动过程中安全无虞地应用。












