Connect with us

访谈

Craig Riddell,Wallarm 全球现场 CISO – 采访系列

mm

Craig Riddell,Wallarm 全球现场 CISO,是一位经验丰富的网络安全高管,专注于帮助企业管理与 API 和 AI 驱动系统相关的日益增长的风险。在他的当前角色中,他与 CISO、CIO 和工程领导密切合作,将现实世界的攻击模式和滥用场景转化为可行的安全策略,强调可观察性——了解 API 和 AI 系统在生产中如何在用户、应用程序和集成中表现。他的职业生涯跨越了身份和访问管理、零信任架构和企业安全等领域的领导角色,包括 Netwrix、Kron 和 HP,在那里他推动了大规模的 IAM 转型和现代化的安全框架。Riddell 的专业知识集中在新兴威胁上,例如商业逻辑攻击、API 滥用、AI 系统漂移和欺诈,始终专注于弥合高层安全战略和运营执行之间的差距。

Wallarm是一家专门从事保护现代云环境中 API、应用程序和 AI 驱动系统的网络安全公司。其平台提供持续发现、测试和实时保护,防御诸如 API 滥用、商业逻辑攻击和自动化利用等威胁,同时提供对系统在复杂基础设施中如何表现的深入可见性。针对多云和云原生架构设计,Wallarm 集成到现有的 DevOps 和安全工作流中,启用组织在攻击发生时检测和阻止攻击,而不是事后。通过结合 API 清单、AI 驱动的威胁检测和自动响应能力,平台解决了一个日益增长的现实,即 API 和 AI 系统已成为现代数字企业的主要攻击面。

您从事系统和基础设施工作开始,之后转入专注于身份、访问、API 和 AI 安全的领导角色。是什么关键的转变使您得出这样的结论:真正的风险已经从外围转移到 API 和机器驱动系统中?

在我早期的职业生涯中,重点是保护边缘。防火墙、分段、基础设施加固。那时的模型在系统更静态、信任边界更容易定义时是有效的。

发生变化的是应用程序的构建方式以及系统之间的交互方式。API 成为了所有事物的连接组织,AI 进一步加速了这一过程。现在,系统正在做出决定,调用其他系统,并以人类不在环路中的规模和速度执行操作。

在那时,外围变得不那么相关。真正的风险转移到了决策和执行操作的地方,即 API 和机器驱动的工作流程中。

如果您没有可见性和控制权,您就相信您无法完全看到的行为。那就是业务风险出现的地方,从财务暴露到意外结果和运营中断。

您将网络安全握手描述为破碎的,指的是系统如何在日益复杂的 API 和自动化过程链中建立信任和交换操作。在当今的企业环境中,这种破坏是什么样的?

在大多数环境中,系统基于身份和身份验证相互信任。令牌是有效的,请求是格式良好的,交互是允许的。

问题在于,这假设有效等于安全。那不再是真的。

我们验证身份,但我们不验证意图。我们验证访问权限,但不验证整个链中的行为。

一个服务可能被授权调用另一个服务,这会触发多个 API 的下游操作。每个步骤在隔离中看起来是合法的,但在整个链中,您开始看到意外的行为或逻辑滥用。

在 AI 驱动的环境中,这种情况被放大。代理可以在没有人类审查的情况下链接操作并执行工作流程。

握手仍然发生,但没有人问行为在上下文中是否有意义。信任被建立,但不被持续验证。

为什么 AI 和 API 风险经常落在组织边界之间,而不是被明确拥有?

因为系统不符合组织的结构方式。

DevOps 拥有交付。安全拥有政策。业务团队拥有结果。数据团队拥有模型。每个团队拥有一个部分,但没有人拥有系统在生产中的行为。

API 执行业务逻辑,跨系统运行。AI 引入了非确定性决策。它们都跨越了每个边界。

它们由一个团队构建,由另一个团队保护,并由第三个团队使用,监控不一致地遍布所有这些团队。

这造成的差距并不是团队的失败。它们是运营模型未能反映现代系统实际工作方式的失败。

在您的经验中,哪些团队通常认为自己拥有 AI 风险,而安全、DevOps 和业务单元之间的最大盲点在哪里?

安全团队往往从治理和合规的角度拥有 AI 风险。DevOps 拥有部署和可靠性。业务团队专注于结果。

盲点出现在这些领域之间。

安全定义了应该发生什么。DevOps 确保系统运行。业务专注于结果。但是,很少有团队在实时中持续查看系统实际上正在做什么。

那就是风险存在的地方,特别是当行为在技术上是有效的,但在上下文中是错误的时。

许多现代攻击表现为有效和经过身份验证的行为,而不是明显的入侵。组织应该如何在这种新现实中重新思考检测?

我们需要超越识别“坏”请求。

在很多情况下,请求是有效的。凭证是合法的。API 调用是预期的。意外的是操作的序列、数量或结果。

检测必须变得行为和上下文相关。它不再是阻止单个请求,而是理解系统如何随时间交互。

在规模上起作用的方法超越了模式匹配。它们将请求结构化地分解,将每个交互视为一组行为令牌,而不是尝试匹配已知的坏模式。

这使您能够理解行为如何随时间演变以及何时发生偏差,即使表面上一切看起来都有效。

如果您依赖静态规则或签名,您将会错过大多数重要的事情。

您强调了对现实世界行为的可观察性的重要性。对于生产中的 API 和 AI 系统,什么是有意义的可观察性?

有意义的可观察性不仅仅是日志和指标。它是理解上下文中的行为。

对于 API,这意味着全面的请求和响应可见性、端点的使用方式以及交互随时间的演变。

对于 AI 系统,这意味着理解输入、决策和结果操作。

最重要的是,它意味着将这些跨系统连接到完整的工作流程中,而不是孤立的事件。

没有它,您将根据对系统行为的假设而不是现实来运作。

为什么传统的人类审查和批准模型在机器驱动的环境中变得不那么有效?

因为速度和规模已经改变。

系统每分钟做出成千上万或数百万个调用,攻击或意外行为可能在几分钟或几秒内发生。您不可能在每个决策中都将人类纳入循环中,而不会破坏性能。

AI 系统也不总是确定性的,这使得预先批准的模型不那么有效。

人类监督仍然很重要,但它需要从批准个别操作转变为定义防护栏并监控结果。

当公司尝试使用传统安全框架来保护 AI 系统时,您看到的最常见的运营差距是什么?

最大的差距是对设计时控制的过度依赖。

组织专注于保护模型、审查代码和在部署前定义策略。这很重要,但它假设系统一旦部署就会按预期行为。

实际上,系统会演变。API 会改变。AI 模型会与新数据和工作流程交互。行为会随时间而改变。

如果没有对生产中行为的持续验证,组织基本上是盲目的。

当多个利益相关者共享 AI 和 API 风险的责任时,什么是一个实用的运营模型?

它从承认没有单个团队可以拥有这一端到端开始。

一个实用的模型定义了共享的责任,围绕着一个共同的真相来源:运行时行为。

安全定义风险和策略。工程构建和运营系统。业务定义可接受的结果。

领先的团队在一个闭环中运营。持续发现、执行和完善,驱动于系统在生产中实际做什么,而不是在设计时假设的内容。

所有利益相关者都需要对系统在生产中的运行有可见性。从那里,团队可以对“良好”行为达成一致,检测偏差并做出响应。

转变是从孤立的所有权到协调的责任,基于运行时洞察。

展望未来,您是否预计安全责任将再次变得更加集中,还是会继续分散,因为系统变得更加自治?

责任将保持分布式,因为这反映了系统的构建方式。

会发生变化的是这种责任如何协调。

我们将看到更多统一的治理模型,团队拥有自己的领域,但在共享的可见性和上下文中运营。

成功的组织将不是那些试图集中所有事情的组织。它们将是那些在系统实际在现实世界中如何表现的基础上对利益相关者进行协调的组织。

如果没有人了解运行时行为,那么没有人真正拥有风险。

感谢您这次精彩的采访,希望了解更多的读者可以访问 Wallarm

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。