思想领袖
增加人工智能安全支出并不能减少任何人工智能风险

人工智能安全预算正在迅速增加。在许多组织中,它们的增长速度甚至超过了它们所要保护的系统。
这种失衡很容易被忽略。人工智能的投资继续加速,全球私人资金在2025年 alone就达到$33.9亿。与此同时,安全领导者被要求对新风险进行核算,这些风险与模型行为、数据暴露和对抗性操纵有关。反应是可以预测的:更多工具、更多控制和更多预算。
将其转化为关于人工智能安全成本的对话很有诱惑力,一个简单的问题是,组织需要花费多少钱来保护人工智能。这是错误的方法。相反,组织需要检查他们的人工智能投资是否真正保护了正确的工具。
在大多数企业中,人工智能仍然是在任务级别引入的。团队尝试使用总结、编码辅助、分析或工作流自动化来提高个体生产力。这些工具提供局部收益,但它们很少改变决策的方式或系统在更广泛的层面上运行。这种差距开始出现在结果中。虽然采用率很广泛,但只有大约20%的组织报告了对其底线的有意义的影响。
安全投资与这些实验同时扩大。然而,在许多情况下,它被应用于越来越多的不连贯的工具,而不是连贯的系统,这些系统决定了业务实际运行的方式。人工智能在任务级别进行评估,在系统级别进行保护,但从未在工作流级别完全设计,在那里创造了真正的价值。
人工智能采用速度快于整合速度
今天的大多数人工智能部署都是由设计而窄的。它们的目的是使个别任务更快,而不是重塑工作流如何跨团队或系统运行。
销售团队可能采用人工智能来草拟电子邮件或总结电话。工程团队使用它来加速代码生成。运营团队尝试使用分析或预测支持。每一种用例都能在个体级别提供可衡量的生产力收益,这通常足以证明初始投资。
复杂性开始于这些孤立的收益积累时。
每次部署都会引入自己的模型、数据访问模式、API和依赖项。随着时间的推移,组织发现自己正在管理一个越来越大的人工智能能力生态系统,这些能力从未被设计为一起运行。即使现在,许多企业仍然处于早期实验阶段,许多计划尚未嵌入到核心业务运营中。
安全团队继承了这种环境,因为它形成了。他们被要求保护不仅仅是一个系统,而是一个不断变化的工具、集成和数据流的集合,这些集合随着每个新实验而扩大。没有统一的架构,安全性成为一个覆盖而不是控制的练习。
真正的风险不是个别工具,而是系统碎片化
随着人工智能实验的继续,领导层的期望开始转变。董事会和高管团队正在询问如何将人工智能支出转化为可衡量的业务成果。
当早期计划失败时,组织很少减慢速度。他们扩大了他们的努力。更多的试点项目被启动。更多的工具被引入。更多的集成被创建,以寻找尚未实现的价值。预测已经表明,超过一半的人工智能项目可能会失败,无法达到生产力或在未来几年内实现预期结果。
对于安全团队来说,这个周期创造了新的风险。
挑战不再仅仅是保护个别应用程序或模型。它是管理一个不断变化的环境,其中基础系统不断变化。每个新工具都会引入额外的身份、数据流和模型行为,这些行为会在防御者有时间完全理解之前扩大攻击面。
在这种情况下,增加安全支出并不一定会降低风险。它可以增加操作复杂性。保护碎片化的系统需要更多的工具、更多的监控和更多的协调,但它并没有解决根本问题,即缺乏人工智能部署和使用的连贯结构。
安全支出只有在人工智能变得可操作时才变得战略性
我们处于一个伟大的位置,因为人工智能安全投资;创新程度是天文数字,而人工智能用例的未来是光明的,尽管安全投资往往与人工智能实际创造价值的地方脱节。
当人工智能主要作为一套孤立的生产力工具进行部署时,安全工作被迫遵循这种碎片化。团队最终保护了数十个不连贯的应用程序,这些应用程序对核心业务成果的影响有限。
当人工智能嵌入到驱动组织运营的工作流中时,会出现更大的价值。规划、预测、资源分配和运营决策是人工智能开始以有意义的方式影响成果的地方。这也是安全投资变得更具战略性的地方。
保护一个不连贯的工具保护一个任务。保护一个集成系统保护一个业务流程。
这是任务级别采用和工作流级别设计之间的区别变得至关重要的地方。人工智能如果不集成到决策过程中,将难以提供可衡量的影响。安全性如果不与这些决策系统保持一致,也将难以降低有意义的风险。
变化必须尽早发生
组织不需要更少的人工智能计划。他们需要更有意图的人工智能计划。
第一个转变是如何评估人工智能成功。如果部署不会改变决策的方式或工作流如何跨团队运行,其影响将保持有限,无论其被广泛采用多少。以工作流级别而不是任务级别衡量成功,提供了一个更清晰的信号,表明人工智能实际上在哪里创造价值。
第二个转变是如何优先考虑安全投资。组织不应该将控制分布在每个实验工具上,而应该集中保护在影响规划、运营和决策的系统周围。这些是风险和价值交汇的地方。
第三个转变是结构性的。人工智能系统引入了新的所有权形式,这些形式超出了传统的应用程序边界。模型、训练数据、数据管道和人工智能生成的输出都需要明确的所有权。没有明确的所有权,治理将变得不一致,安全漏洞将更难被识别。
这些变化综合起来,将组织从保护活动转变为保护成果。
构建可以真正扩展的人工智能系统
将人工智能采用与工作流级别设计相结合的组织,可以获得更清晰的价值和控制路径。
当安全资源集中在最重要的系统上,而不是分散在不连贯的实验中时,它们变得更加有效。领导层对人工智能投资如何转化为运营影响有了更好的可见性。随着时间的推移,人工智能计划变得更加可持续,因为它们是建立在结构化系统上,而不是积累的工具上。
人工智能投资不会减慢。安全支出将继续随之增加。区别在于如何应用这些投资。
继续在任务级别扩展人工智能的组织将会发现自己正在保护一个不断扩大的不连贯的工具表面。那些在工作流级别设计人工智能的组织将会保护真正值得保护的系统。












