访谈
瓦伦·巴德瓦尔,Endor Labs创始人兼CEO – 采访系列

瓦伦·巴德瓦尔,Endor Labs创始人兼CEO,是一位网络安全企业家,以建立和领导云计算和应用程序安全领域的公司而闻名。自2021年以来,他领导Endor Labs,该公司专注于保护AI驱动的软件开发。之前,他曾是Palo Alto Networks的Prisma Cloud的高级副总裁和总经理,以及云安全初创公司RedLock的创始人,后被Palo Alto Networks收购。
Endor Labs是一款为AI时代打造的应用程序安全平台,旨在帮助工程和安全团队在软件开发中平衡速度和安全性。该平台将基于可达性的软件组成分析、SAST、容器扫描、密钥检测和CI/CD管道保护等功能整合到一个统一的视图中,帮助团队识别哪些漏洞真正重要并优先修复。它还包括分析拉取请求的架构更改和检测AI生成代码中早期风险的AI代理。
您之前建立并扩展了主要的安全风险——这些经历如何导致您创立Endor Labs,并且您最初最想解决什么问题?
2021年,我在Palo Alto Networks时,SolarWinds漏洞事件发生了。这是一个巨大的事件。每个使用他们软件的客户都受到影响,我们也不例外。当我深入研究我们如何管理自己的软件时,我意识到我们有450名工程师和68,000个安全漏洞,但工程师们大多忽略了它们。原因是80-90%的警报是假阳性,传统工具无法理解开发人员实际如何工作。
那时我就意识到:现代软件开发更像组装而不是创造。我们正在发布的大部分代码是第三方库,没有质量或安全保证。我看到了安全团队和工程师之间的脱节、对立的动态和政治摩擦。我知道我们需要从头开始重新思考应用程序安全,这导致了创立Endor Labs。
Endor Labs现在保护了从金融科技到SaaS平台的组织的数百万个应用程序。您看到最常见的用例是什么,为什么客户选择您?
我们的客户来到我们这里,以保护他们的软件供应链和开发者管道。他们希望在生产之前验证开源依赖项,自动标记高风险的AI生成代码,并最终将安全性直接集成到开发者工作流中。
大多数扫描器只是将漏洞抛给开发人员,然后放弃,制造了噪音,工程师们不可避免地会忽略它。随着vibe编码的流行,这种方法根本不起作用。在Endor,我们提供上下文感知分析和可行的见解,因此安全和工程团队可以再次相互信任。
开发人员经常面临快速开发和保持安全之间的紧张关系。您的平台如何帮助解决这个挑战?
速度与安全是软件开发中最古老的难题。vibe编码只会使这种权衡更加明显。 45%的开发人员每天都使用AI助手,这加快了速度,但也引入了不安全的代码。
在Endor Labs,我们将安全性直接嵌入开发人员已经使用的工作流中。可以将其视为IDE、拉取请求、Git管道。我们的哲学很简单:安全性只是另一种类型的错误。像对待其他软件错误一样对待它,它就成为开发过程的自然部分,而不是事后补充。通过减少噪音并提供清晰的指导,我们使开发人员能够快速移动,同时仍然确保他们发布的软件是安全的。
假阳性是安全性中最大的痛点之一。您如何以不同的方式解决这个问题?
假阳性是一个巨大的问题。我见过工程师忽略大量警报,因为它们毫无意义。在第三方攻击以双位数增长的世界中,攻击者正在利用开发人员管道中的侧门,这种情况尤其危险。
我们的方法是优先考虑上下文。我们不仅仅将每个CVE与依赖项匹配,还分析代码路径、业务逻辑,甚至AI生成的设计更改。我们还开发了Endor Labs模型上下文协议(MCP)服务器,允许AI代理调用后端工具以获得精确的修复,而不是幻想中的修复。其他工具无法提供这种精度,因为它们缺乏应用程序上下文。它们不知道您的代码做什么、服务如何相互通信或安全修复的样子。结果是更少的无意义警报和更实用的指导,开发人员可以真正采取行动。
软件供应链现在被视为企业面临的最紧迫风险之一。为什么这个问题如此关键?
开源软件现在主导了企业软件,软件开发已经转变为软件组装。现代应用程序中大约90%的组件是外部的,AI编码助手还会自动引入更多依赖项。这意味着单个漏洞可以在数百万个应用程序中传播。
风险很高:监管机构现在将开源视为国家安全问题。像最近的Shai-Hulud npm漏洞这样的攻击表明,攻击者正在积极针对这些弱点。没有适当的防护措施,企业将在大规模范围内暴露。
AI正在改变软件的构建方式。这种变化为应用程序安全带来了什么新的风险?
AI助手就像同时雇佣成千上万名实习生——它们可以提高生产力,但如果不加管理,也会引入混乱。研究表明,62%的AI生成代码存在安全、质量或架构问题。除了已知的CVE外,这些问题还包括逻辑缺陷、新API端点或加密错误,传统工具从未被设计为捕获这些问题。
新的挑战是扩大安全代码审查的规模。依靠过度劳累的高级工程师手动检查每个拉取请求是不起作用的。你需要自动化系统,可以以AI生成代码的速度审查、优先级和指导开发人员。
一些人认为AI引入的漏洞比它防止的漏洞更多。你认为AI目前是净风险还是净收益?
它可以两者都是。AI对于原型设计和实验非常棒,但依赖AI的缺乏经验的开发人员可能会造成盲人引领盲人的情况。解决这个问题的方法是将AI与安全防护措施配对。有了正确的审查系统和MCP驱动的修复,AI可以从净风险转变为净收益。没有这些,风险大于收益。
随着AI生成代码变得更加普遍,组织应该实施什么保障措施来确保对部署的代码的信任?
将AI生成的代码视为任何其他第三方依赖项。也就是说,需要持续监控、自动化验证和管道的每个阶段的防护措施。你还需要确保你的AI审查工具是使用高质量、安全的代码训练的,而不是仅仅是随机的GitHub存储库。
然后超越检测。当一个风险依赖项被标记时,你的工具应该推荐避免破坏应用程序的升级路径。这是混乱和控制之间的区别。我喜欢把它想象成保龄球道上的护栏:球仍然移动得很快,但它仍然在轨道上。
透明度是您领导风格的核心。分享胜利和挫折如何影响文化和表现?
我们在Endor Labs力求做到极度透明。这意味着分享一切——不仅仅是公司业绩,还包括股票计划和战略风险。员工是成年人。我们的团队可以处理现实。开放性建立信任、参与度和所有权,并帮助人们做出更好的决定。
您经常让新兴领导者在职业生涯早期承担重要责任。您会给第一次担任管理职位的人什么建议?
我喜欢给有前途的团队成员早期提供重要角色,并相信他们能够成长为该职位。通过指导和支持,他们会迅速学习。我的建议是:接受责任,学习失败,并通过行动建立信誉。人们经常会以令人惊讶的方式超出你的期望,当你给他们空间时,他们会做出令人惊讶的事情。
展望未来五年,您认为保护软件供应链的最大机遇和挑战是什么?
随着AI编码助手和公民开发者重塑工作流程,我们需要像“安全配对程序员”一样的系统,它可以实时审查每个拉取请求,扩大安全代码审查,并为开发人员提供可信的上下文。这就是为什么我们在Endor Labs构建了MCP服务器和多代理架构的原因,它们已经帮助客户跟上AI原生开发的步伐。
挑战在于,供应链本身变得越来越复杂。今天,代码基本上是从外部组件组装而成的,每个新AI工具都会引入另一个依赖项。没有重新思考其模型的公司将会发现自己暴露在外。
我们正在看到这种紧迫性在实时中展开——Endor Labs现在保护着700万多个应用程序,每月扫描160万个拉取请求,并将工程团队的噪音减少了90%以上。五年后,胜出的组织将是那些将安全编码视为开发人员生产力核心部分的组织。
感谢这次精彩的采访,希望了解更多的读者可以访问Endor Labs。












