思想领袖
企业无需承担 AI 技术债务,开发人员是否可以接受“Vibe Coding”?

当 OpenAI 联合创始人 Andrej Karpathy 上周创造“氛围编码”一词时,他抓住了一个转折点:开发人员越来越多地委托生成式人工智能来起草代码,而他们自己则专注于高级指导,“几乎不碰键盘”。
基础 LLM 平台(GitHub Copilot、DeepSeek、OpenAI)正在重塑软件开发,其中 Cursor 最近成为增长最快的公司 曾经 将年度经常性收入从 1 万美元提高到 100 亿美元(不到一年)。但这种速度是有代价的。
技术债务已估计会给企业带来损失 超过 1.5 万亿美元 每年因运营和安全效率低下而导致的损失并不是什么新鲜事。但现在企业面临着一个新出现的、我认为甚至更大的挑战: 人工智能技术债务—一场由低效、不正确且可能不安全的人工智能生成的代码引发的无声危机。
人力瓶颈已从编码转移到代码库审查
2024 年 GitHub 调查 发现几乎所有企业开发人员(97%)都在使用生成式 AI 编码工具,但只有 38% 的美国开发人员表示他们的组织积极鼓励使用生成式 AI。
开发人员喜欢使用 LLM 模型来生成代码,以便更快地提交更多代码,而企业也已做好准备来加速创新。然而,手动审核和传统工具无法适应或扩展,无法每天优化和验证数百万行 AI 生成的代码。
随着这些市场力量的应用,传统的治理和监督可能会崩溃,而一旦崩溃,未经验证的代码就会渗透到企业堆栈中。
开发人员“氛围编码”的兴起有可能增加技术债务的数量和成本,除非组织实施平衡创新速度和技术验证的护栏。
速度的幻觉:当人工智能超越治理时
人工智能生成的代码本身并没有缺陷——只是 未验证 以足够的速度和规模。
考虑一下数据:所有 LLM 都表现出模型损失(幻觉)。最近的一篇研究论文评估了 GitHub Copilot 代码生成的质量 发现错误率为 20%使问题更加复杂的是 AI 输出的庞大数量。单个开发人员可以使用 LLM 在几分钟内生成 10,000 行代码,远远超过人类开发人员优化和验证代码的能力。传统的静态分析器是为人类编写的逻辑而设计的,难以处理 AI 输出的概率模式。结果如何?低效算法导致云账单膨胀、未经审查的依赖关系导致合规风险以及生产环境中潜伏的严重故障。
我们的社区、公司和关键基础设施都依赖于可扩展、可持续且安全的软件。人工智能驱动的技术债务渗入企业可能意味着业务关键风险……甚至更糟。
在不破坏氛围的情况下恢复控制
解决方案不是放弃使用生成式人工智能进行编码,而是让开发人员部署代理人工智能系统作为大规模可扩展的代码优化器和验证器。代理模型可以使用进化算法等技术在多个 LLM 中迭代优化代码,以优化关键性能指标(例如效率、运行时速度、内存使用率),并在不同条件下验证其性能和可靠性。
三个原则将区分那些借助人工智能蓬勃发展的企业和那些因人工智能技术债务而陷入困境的企业:
- 可扩展验证是不可协商的:企业必须采用能够大规模验证和优化 AI 生成代码的代理 AI 系统。传统的人工审查和传统工具不足以处理 LLM 生成的代码的数量和复杂性。如果没有可扩展的验证,效率低下、安全漏洞和合规风险将激增,从而侵蚀业务价值。
- 平衡速度与治理:虽然人工智能加速了代码生成,但治理框架必须不断发展以跟上步伐。组织需要实施护栏,确保人工智能生成的代码符合质量、安全性和性能标准,而不会扼杀创新。这种平衡对于防止速度假象变成代价高昂的技术债务现实至关重要。
- 只有人工智能才能跟上人工智能的步伐:人工智能生成的代码数量庞大、复杂程度高,因此需要同样先进的解决方案。企业必须采用能够持续分析、优化和验证大规模代码的人工智能驱动系统。这些系统确保人工智能驱动的开发速度不会影响质量、安全性或性能,从而实现可持续创新,而不会产生沉重的技术债务。
氛围编码:不要得意忘形
推迟实施“氛围编码”的企业最终将不得不面对现实:失控的云成本导致的利润率下降、团队难以调试脆弱代码导致的创新瘫痪、不断增加的技术债务以及人工智能引入的安全漏洞的隐患。
开发人员和企业的前进之路都需要承认这一点 只有人工智能可以优化和验证人工智能 大规模。通过让开发人员访问代理验证工具,他们可以自由地接受“氛围编码”,而无需让企业承担越来越多的人工智能技术债务。正如 Karpathy 所指出的,人工智能生成代码的潜力令人兴奋——甚至令人陶醉。但在企业开发中,必须首先通过一种新型进化的代理人工智能进行氛围检查。