思想领袖
LLM 和生成式人工智能能否解决 20 年来的应用程序安全问题?

在不断发展的网络安全格局中,领先恶意行为者一步始终是一项挑战。过去二十年,应用程序安全问题始终存在,传统方法往往无法有效检测和缓解新兴威胁。然而,一项前景光明的新技术——生成式人工智能 (GenAI),即将彻底改变这一领域。本文将探讨生成式人工智能与安全的关系,它为何能够解决以往方法无法解决的长期挑战,它可能给安全生态系统带来的潜在颠覆,以及它与传统机器学习 (ML) 模型的区别。
为什么问题需要新技术
应用安全问题是多方面的、复杂的。 传统的安全措施主要依赖于模式匹配、基于签名的检测和基于规则的方法。 虽然这些方法在简单情况下有效,但很难解决开发人员编写代码和配置系统的创造性方式。 现代对手不断发展他们的攻击技术,扩大攻击面,并使模式匹配不足以防范新出现的风险。 这需要安全方法的范式转变,而生成人工智能可能是应对这些挑战的关键。
安全法学硕士的魔力
生成式人工智能是对机器学习算法中使用的旧模型的进步,这些算法非常擅长基于合成样本的训练学习对数据进行分类或聚类。 现代法学硕士接受来自大型代码存储库(例如 GitHub)的数百万个示例的培训,这些示例部分标记为安全问题。 通过从大量数据中学习,现代法学硕士模型可以理解应用程序代码和环境中的底层模式、结构和关系,使它们能够识别潜在的漏洞,并在给定正确的输入和启动的情况下预测攻击向量。
另一个巨大的进步是能够生成真实的修复示例,可以帮助开发人员了解根本原因并更快地解决问题,特别是在安全专业人员在组织上孤立和超载的复杂组织中。
GenAI 带来的即将到来的颠覆
生成式人工智能有可能通过多种方式颠覆应用程序安全生态系统:
自动漏洞检测:传统的漏洞扫描工具通常依赖于手动规则定义或有限的模式匹配。 生成式人工智能可以通过从广泛的代码存储库中学习并生成合成样本来识别漏洞,从而实现流程自动化,从而减少手动分析所需的时间和精力。
对抗性攻击模拟:安全测试通常涉及模拟攻击以识别应用程序中的弱点。 生成式人工智能可以生成真实的攻击场景,包括复杂的多步骤攻击,使组织能够加强对现实世界威胁的防御。 一个很好的例子是“BurpGPT”,它是 GPT 和 Burp 的组合,有助于检测动态安全问题。
智能补丁生成:针对漏洞生成有效的补丁是一项复杂的任务。 生成式人工智能可以分析现有代码库并生成解决特定漏洞的补丁,从而节省时间并最大限度地减少补丁开发过程中的人为错误。
虽然此类修复传统上被行业拒绝,但自动化代码修复与 GenAI 生成测试的能力的结合可能是行业将边界推向新水平的好方法。
增强的威胁情报:生成式人工智能可以分析大量与安全相关的数据,包括漏洞报告、攻击模式和恶意软件样本。 GenAI 可以通过生成见解和识别新兴趋势(从最初的迹象到真正可操作的剧本)来显着增强威胁情报能力,从而实现主动防御策略。
LLM 和应用程序安全的未来
由于对上下文的理解有限、代码覆盖不完整、缺乏实时评估以及缺乏特定领域的知识,法学硕士在实现完美的应用程序安全方面仍然存在差距。 为了在未来几年解决这些差距,可能的解决方案必须将法学硕士方法与专用安全工具、外部丰富源和扫描仪相结合。 人工智能和安全领域的持续进步将有助于弥合这些差距。
一般来说,如果您有更大的数据集,您可以创建更准确的 LLM。 对于代码来说也是如此,因此当我们拥有更多相同语言的代码时,我们将能够使用它来创建更好的法学硕士,这反过来又会推动更好的代码生成和安全性向前发展。
我们预计,在未来几年,我们将见证 LLM 技术的进步,包括利用更大代币规模的能力,这对于进一步显着改善基于人工智能的网络安全具有巨大潜力。












