Connect with us

思想领袖

增加AI安全支出,并未减少您的任何AI风险

mm

AI安全预算正在快速增长。在许多组织中,其增长速度甚至超过了它们本应保护的系统。 这种失衡很容易被忽视。对人工智能的投资持续加速,仅2025年,全球私人融资就达到339亿美元。与此同时,安全负责人被要求应对与模型行为、数据暴露和对抗性操纵相关的新风险。回应是预料之中的:更多的工具、更多的控制措施和更多的预算。 人们很容易将其转化为关于业务成本的讨论,即组织需要花费多少来保障AI安全这样一个简单问题。然而,这是应对这个新问题的错误方式。相反,组织需要审视其AI投资是否真正保障了正确的工具。 在大多数企业中,AI仍然在任务层面被引入。团队尝试使用总结、编码辅助、分析或工作流自动化来提高个人生产力。这些工具带来了局部收益,但它们很少改变决策方式或更广泛层面的系统运作方式。这种差距开始体现在结果上。尽管采用广泛,但只有大约20%的组织报告对其利润产生了有意义的影响。 安全投资正随着这种实验而同步扩大。然而,在许多情况下,它被应用于日益增多的、互不关联的工具集合,而非用于塑造业务实际运行方式的连贯系统。AI在任务层面被评估,在系统层面被保护,却从未在创造真正价值的工作流层面进行完整设计。

AI的采用速度正快于其整合速度

如今大多数AI部署在本质上都是狭窄的。它们旨在使单个任务更快,而不是重塑工作跨团队或系统的流动方式。 销售团队可能采用AI来起草电子邮件或总结通话。工程团队用它来加速代码生成。运营团队尝试分析或预测支持。这些用例中的每一个都在个人层面带来了可衡量的生产力提升,而这通常足以证明初始投资的合理性。 复杂性始于这些孤立的收益累积之时。 每次部署都会引入其自身的模型、数据访问模式、API和依赖项。随着时间的推移,组织发现自己管理着一个不断增长的AI能力生态系统,而这些能力从未被设计为协同工作。即使在现在,大部分企业仍处于早期实验阶段,许多举措尚未嵌入核心业务运营。 安全团队在这个环境形成过程中继承了它。他们被要求保护的并非单一系统,而是一个随着每次新实验不断扩展的工具、集成和数据流的集合。没有统一的架构,安全就变成了覆盖范围的演练,而非控制。

真正的风险并非单个工具,而是系统碎片化

随着AI实验的继续,领导层的期望开始转变。董事会和高管团队正在询问不断增加的AI支出如何转化为可衡量的业务成果。 当早期举措未能达到预期时,组织很少会放慢脚步。他们会扩大努力。启动更多的试点项目。引入更多的工具。创建更多的集成,以寻找尚未实现的价值。预测已经表明,超过一半的AI项目可能在未来几年内无法投入生产或交付预期结果。 对于安全团队而言,这种循环创造了一种新型风险。 挑战不再仅仅是保护单个应用程序或模型。而是管理一个底层系统不断变化的环境。每个新工具都会引入额外的身份、数据流和模型行为,在防御者有时间完全理解之前就扩大了攻击面。 在这种背景下,增加安全支出并不一定能降低风险。相反,它可能增加运营复杂性。保护碎片化的系统需要更多的工具、更多的监控和更多的协调,但这并未解决根本问题,即缺乏一个关于AI如何部署和使用的连贯结构。

只有当AI变得可操作时,安全支出才具有战略性

由于AI安全投资,我们处于一个有利位置;创新程度是惊人的,虽然AI用例的未来是光明的,但安全投资往往与AI实际创造价值的地方脱节。 当AI主要作为一组孤立的生产力工具部署时,安全工作被迫跟随这种碎片化。团队最终保护的是数十个对核心业务成果影响有限的、互不关联的应用程序。 当AI嵌入到驱动组织运作的工作流中时,更大的价值才会显现。规划、预测、资源分配和运营决策是AI开始以有意义的方式影响成果的领域。这些也是安全投资变得更具战略性的环境。 保护一个孤立的工具是保护一项任务。保护一个集成的系统是保护一个业务流程。 这就是任务级采用与工作流级设计之间的区别变得至关重要的地方。未整合到决策方式中的AI将难以产生可衡量的影响。未与这些决策系统保持一致的安全措施将难以降低有意义的风险。

变革必须尽早进行

组织需要的不是更少的AI举措,而是更具意图性的举措。 第一个转变在于如何评估AI的成功。如果一个部署没有改变决策方式或工作跨团队的流动方式,那么无论其采用范围多广,其影响都将有限。在工作流层面而非任务层面衡量成功,能更清晰地显示AI实际在何处创造价值。 第二个转变在于如何确定安全投资的优先级。组织不应将控制措施分散到每个实验性工具上,而应将保护集中在影响规划、运营和决策的系统周围。这些是风险与价值相交的环境。 第三个转变是结构性的。AI系统引入了超越传统应用边界的新型所有权形式。模型、训练数据、数据管道和AI生成的输出都需要明确的问责制。没有明确的所有权,治理就会变得不一致,安全漏洞也更难识别。 综合来看,这些变化推动组织从保护活动转向保护成果。

构建真正可扩展的AI系统

将AI采用与工作流级设计保持一致的组织,能获得一条通往价值和控制的更清晰路径。 当安全资源集中在最重要的系统上,而不是分散在互不关联的实验上时,它们会变得更有效。领导层能更好地了解AI投资如何转化为运营影响。随着时间的推移,AI项目会变得更可持续,因为它们是建立在结构化系统之上,而非累积的工具之上。 AI投资并未放缓。安全支出将继续随之增长。区别将在于这些投资如何应用。 继续在任务层面扩展AI的组织将发现自己需要保护一个不断扩大的、互不关联的工具表面。而在工作流层面设计AI的组织,将保护那些真正值得保护的系统。

Steve Povolny, VP of AI Strategy & Security Research, Exabeam is a seasoned security research professional with over 15 years of experience in managing security research teams. He has a proven track record of identifying vulnerabilities and implementing effective solutions to mitigate them.