关注我们.

思想领袖

企业为何对人工智能保持谨慎——以及如何安全地部署它

mm

人工智能席卷全球。虽然一些组织是早期采用者,但许多公司采取了更为谨慎的态度——他们担心隐私、合规性和运营问题至今仍然存在。

我参与过数百个涉及人工智能安全工具的部署,见证了一种熟悉的模式。拥护者带来早期的热情。试点项目展现出前景。随后是内部辩论、法律审查,最终随着组织陷入分析瘫痪而陷入停滞。尽管人工智能在改变安全运营方面拥有巨大的潜力,但许多公司仍然不愿完全接受它。

在网络安全领域,谨慎往往是正确的本能。但推迟人工智能的实施并不能阻止如今规模和频率都在增长的人工智能威胁。真正的挑战在于如何安全、谨慎地采用人工智能,并且不损害信任。

以下是我从前线学到的知识,以及我为准备满怀信心地前进的安全领导者提出的建议。

1. 数据信任问题

第一个也是最大的障碍是数据管理。许多公司担心敏感数据可能泄露、被滥用,或者——最糟糕的是——被用来训练有利于竞争对手的模型。备受瞩目的数据泄露事件和含糊不清的供应商保证只会加剧这些担忧。

这不是偏执。当你处理客户 PII、知识产权或受监管数据时,将其交给第三方可能会感觉失去控制。除非供应商能够更好地阐明其在数据隔离、保留、第四方参与和模型训练方面的政策,否则采用这些技术仍需谨慎。

这正是治理变得至关重要的地方。CISO 应该使用新兴框架来评估供应商,例如 NIST 人工智能风险管理框架 or ISO / IEC 42001,为人工智能系统的信任、透明度和责任提供实用指导。

2. 无法改进你无法衡量的东西

另一个常见的障碍是缺乏基线指标。许多公司无法量化当前的绩效,这使得证明人工智能工具的投资回报率几乎不可能。如果没有人追踪自动化之前任务的耗时,你又怎么能宣称效率提升了40%呢?

无论是平均检测时间 (MTTD)、误报率,还是节省的 SOC 分析师工时,组织都需要首先衡量当前的工作流程。如果没有这些数据,AI 的可行性就只能停留在传闻阶段——如果没有真实可靠的数据,高管发起人是不会批准大规模项目的。

立即开始跟踪关键 KPI,包括:

  • 平均检测/响应时间(MTTD/MTTR)
  • 减少误报、漏报和票量
  • 每次事件节省的分析师时间
  • 覆盖范围的改进(例如,扫描和修复漏洞)
  • 事件得到解决,未升级

这些基线将成为您的 AI 论证策略的支柱。

3. 当工具太好用时

具有讽刺意味的是,人工智能采用停滞的原因之一是某些工具运行得太好了——暴露的风险超出了组织准备处理的范围。

先进的威胁情报平台、暗网监控工具以及基于 LLM 的可见性解决方案,常常会发现被盗凭证、类似域名或之前未被发现的漏洞。这种压倒性的可见性非但无法提供清晰的线索,反而会引发新的问题:我们究竟该从何入手?

我见过一些团队因为发现的问题数量过多而导致政治或预算方面的不便,从而禁用高级扫描。更好的可视性需要更清晰的优先级排序,以及直面问题的意愿。

4. 受制于遗留合同

即使有了更好的工具,许多公司仍然受困于与传统供应商签订的多年期协议。有些合同附带高额的经济处罚,以至于中期更换供应商几乎不可能。

电子邮件安全就是一个典型案例。现代解决方案如今提供人工智能驱动的威胁检测、行为建模以及针对混合环境的内置弹性。但如果您当前的供应商未能跟上步伐,而您又被困在一份五年期合同中,那么您实际上只能原地踏步,直到合同到期。

这不仅仅关乎技术,还关乎时机、采购和战略规划。

5.影子人工智能的崛起

人工智能的采用并不只是自上而下发生的——它正在各个地方发生,而且往往是在安全部门不知情的情况下发生的。 我们的研究 数据显示,超过 85% 的员工已经在使用 ChatGPT、Copilot 和 Bard 等 AI 工具。(更不用说 DeepSeek 和 TikTok!)

如果没有适当的监督, 员工可能会输入敏感数据 侵入公共工具、依赖虚假输出,或无意中违反公司政策。这是一场合规和数据保护的噩梦,假装这一切没有发生并不能解决问题。

安全领导者需要采取积极主动的立场:

  • 制定可接受的使用政策
  • 在需要的地方阻止未经批准的人工智能应用程序,并将这些用户重定向到授权工具
  • 推出经批准的安全人工智能平台供内部使用
  • 培训员工负责任地使用人工智能

现场笔记:AI 使用政策不会改变使用情况。你无法强制执行你不了解的事情,所以第一步是量化使用情况,然后启动强制执行。

6.外包本身就存在风险

很少有公司拥有在内部构建和托管大型模型的基础设施。这意味着外包通常是唯一可行的途径——但这会带来CISO们都十分熟悉的第三方和供应链风险。

SolarWinds、Kaseya 以及​​最近的 Snowflake 数据泄露事件凸显了信任缺乏透明度的外部合作伙伴可能导致重大风险。当你将 AI 基础设施外包时,你继承了供应商的安全态势——无论好坏。

仅仅信任一个品牌是不够的。要求明确以下几点:

  • 模型生命周期和更新频率
  • 事件响应协议
  • 供应商安全控制和合规历史
  • 数据隔离和租户控制

7. 人工智能攻击面正在扩大

随着企业拥抱人工智能,他们也必须为特定于人工智能的威胁向量做好准备。攻击者已经在尝试:

  • 模型中毒(巧妙地 改变训练数据)
  • 及时注射 (操纵 LLM 行为)
  • 对抗性输入(绕过检测)
  • 幻觉利用(诱骗用户相信虚假输出)

这些并非理论上的,而是真实存在的,并且正在不断发展。随着防御者采用人工智能,他们还必须调整红队、监控和响应策略,以应对这种全新且独特的攻击面。

8.人员和流程可能是真正的瓶颈

最容易被忽视的挑战之一是组织准备。人工智能工具通常需要改变工作流程、技能组合和思维方式。

分析师需要了解何时信任人工智能,何时挑战它,以及如何有效地升级。领导者需要将人工智能融入决策流程,而非盲目地自动化风险。

培训、战术手册和变革管理必须与技术同步发展。人工智能的采用不仅仅是一项技术举措,更是一项人类转型举措。

所以,我们能做些什么?

尽管面临挑战,但我坚信,如果正确实施,人工智能在安全领域带来的好处将远大于风险。以下是我为各组织未来发展提供的建议:

  • 从小处着手,严格测试
  • 选择具有可衡量影响的、有明确范围的用例。进行受控试点。验证性能。用数据而非炒作建立信任。
  • 尽早引入法律、风险和安全措施
  • 不要等到合同阶段才采取行动。提前引入法律和合规部门,审查数据处理条款、监管风险以及供应链影响。

衡量一切

实施前后跟踪关键绩效指标 (KPI)。创建兼具安全性和业务功能的仪表盘。指标决定着 AI 投资的成败。

选择具有实际成功项目证明的合作伙伴

不要只看演示。要索取参考资料。询问售后支持、部署复杂性以及在类似环境中的成果。

下一步是什么?值得关注的新兴用例

我们仍处于人工智能安全领域的早期阶段。具有前瞻性的首席信息安全官们已开始探索:

  • 防火墙管理、GRC 和合规性自动化的 AI 副驾驶
  • 利用人工智能增强威胁源来加快零日威胁响应和准确性
  • 生成红队和攻击模拟
  • 自我修复的多供应商基础设施
  • 基于风险的身份控制由 行为人工智能

这些用例正在从创新实验室走向生产。现在就着手打造实力的组织将能更好地利用这些用例。

最后的想法:拖延不是防守

人工智能已经到来,人工智能驱动的对手也已到来。你拖得越久,失去的阵地就越大。但这并不意味着你应该盲目冲锋。

通过周密的规划、透明的治理和合适的合作伙伴,您的组织可以安全地采用人工智能——在不牺牲控制的情况下提升能力。

安全的未来是增强的。唯一的问题是,你是领先还是落后。

Pete Nicoletti 担任美洲区 CISO Check Point软件技术,曾在 Cybraics Defense、Hertz Global 和 Virtustream 担任领导职务。