Connect with us

思想领袖

互联网在2026年将持续崩溃,AI是部分原因

mm

如果说2025年给人的感觉是互联网持续崩溃的一年,那么2026年似乎也将如此。中断、事故和生产故障已不再是让工程团队感到意外的罕见事件。它们正成为现代软件开发中一种稳定的背景状态。 来自IsDown.app等中断追踪器的数据显示,自2022年以来,事故逐年攀升,且没有出现有意义的逆转,独立调查也证实了这一点。一项针对全球1000多名首席信息官、首席信息安全官和网络工程师的民意调查发现,84%的组织报告中断事件在增加,其中超过一半的组织在短短两年内中断事件增加了10-24%。 ThousandEyes观察到了类似的波动性,月度间的剧烈波动表明存在持续的上行压力,而非孤立的故障。一个令人不安的结论是,尽管多年来在云基础设施、可观测性和自动化方面进行了投资,但我们每天依赖的系统正变得更为脆弱,而非更具韧性。 当主要平台宕机时,影响范围是立竿见影的。支付失败、消费者应用冻结、内部工具陷入停滞,整个供应链都会受到影响,经济损失估计通常达到数十亿美元。例如,电子商务领导者亚马逊将事故的增加——包括本月其网站和购物应用近六小时的中断——归因于生成式AI辅助的变更。这促使该公司安排工程会议,深入探讨近期中断事件的激增。 每次重大中断之后,关于冗余、多云策略和供应商集中风险的相同对话都会重复出现。这些讨论很重要,但它们忽略了更大的图景。 如果基础设施提供商并未在其业务上变得更糟,且工具链持续成熟,那么事故为何仍在增加?

AI改变了软件的交付方式

与中断事件增加同时发生的最重大转变之一,是AI辅助软件开发的普及。AI编码工具已不再是实验性的。它们已嵌入到日常工作流程中,无论是在IDE还是CLI中,使得用AI生成代码变得比以往任何时候都更容易。 在整个行业中,每位开发者的拉取请求数量大幅增加,一些分析显示,随着AI加速产出,同比增长了约20%。与此同时,每个拉取请求的事故数量增长得更快,增加了23%以上。 这种相关性并非因果关系的证明,但很难忽视。AI不仅使编写代码更快,它还改变了风险的形态。到目前为止,大多数团队都遇到过AI辅助代码中源源不断的错误,经验丰富的工程师确信他们自己不会引入这些错误。 这些不是戏剧性的语法错误或明显损坏的变更。它们是细微的逻辑错误、配置错误、缺失的防护措施以及乍一看似乎合理的边缘情况故障。 AI生成的代码通常能顺利编译,通过基本测试,并且读起来似乎正确。问题不在于AI发明了新型错误,而在于它更频繁地产生熟悉的错误,并且其规模压倒了现有的审查和QA流程。

当AI编写更多代码时,数据揭示了什么

我们最近分析了数百个开源拉取请求,以便在我们的《AI与人类代码生成现状报告》中为这种直觉提供数据支持。当将AI共同创作的变更与纯人工拉取请求进行比较并按规模标准化后,AI辅助的PR总体上包含的问题大约多出1.7倍。 更令人担忧的是,它们还显示出1.4-1.7倍更多的关键和重大问题。逻辑和正确性问题,包括有缺陷的控制流、不正确的依赖项使用和配置错误,大约高出75%。错误处理漏洞,如缺失的空值检查、不完整的异常路径和缺失的防护措施,出现的频率几乎翻倍。 安全问题也被放大,某些类别的发生率高达2.7倍,尤其是在凭据处理和不安全对象引用方面。并发和依赖项正确性问题也增加了约2倍。 人类也会犯同样的错误,但当AI参与时,这些缺陷出现的频率更高,范围更广,并且速度超过了传统的代码审查。这些正是那种很可能在快速审查中漏过,随后在生产环境中表现为安全事故或中断的缺陷类型。

什么将决定2026年是否有所不同

从安全角度来看,这一趋势难以忽视。逻辑缺陷、不安全的默认设置和配置错误扩大了攻击面,即使单个漏洞孤立来看并不具有灾难性。错误处理漏洞和依赖项错误增加了故障级联而非安全降级的可能性。 强隔离、最小权限执行、短期凭据和加密可以在出现问题时限制影响范围,但它们无法弥补在开发生命周期早期引入的缺陷。安全性和可靠性不再仅仅是基础设施问题,而是软件如何构建、审查和测试的直接后果。 如果这种不平衡持续下去,互联网在2026年将继续崩溃。这并不是反对AI的论点,因为AI已经到来且不会消失。表现最好的团队不是那些回避AI的团队,而是那些调整其防护措施以适应AI的团队。 这意味着为更高的产出适当配备审查和QA团队资源,将测试和验证环节前移到开发循环的早期,明确哪些AI生成的问题值得更深入的审查,并将AI辅助的代码默认视为高方差输入而非可信输出。 教训很简单:你无法通过自动化来逃避责任。随着AI编写更多代码,团队需要更多的时间、工具和人员来审查更多代码,而不是更少。AI创新的下一阶段将不由代码生成的速度来定义,而将由代码交付的信心来定义。

审查现已成为瓶颈

AI极大地提高了代码生成能力。它并未自动提高审查能力。这种差距带来了风险。AI采用的下一阶段将不由代码生成的速度来定义。它将由团队交付代码的信心来定义。 这意味着:

  • 为更高的产出,而非更低的产出,配备审查和QA资源。
  • 将验证环节前移到开发循环的早期。
  • 增加拉取请求中的信号,让审查者专注于重要事项。
  • 将AI辅助的代码视为值得更深入审查,而非更宽松监督的对象。

互联网不必持续崩溃。AI不是根本问题,未经审查的AI生成代码才是。如果AI将要编写越来越多的生产软件,那么就需要同样严谨的东西在交付前对其进行审查。 这种转变正是AI代码审查正在成为基础架构而非可选工具的原因。像CodeRabbit这样的平台将上下文感知的AI审查直接嵌入到您的Git工作流程中,帮助团队在逻辑错误、安全漏洞和边缘情况演变为事故之前捕获它们。 因为如果代码生成规模扩大,审查也必须随之扩大。 否则,2026年将看起来和2025年一模一样——只是更快。

David Loker is the Vice President of AI at CodeRabbit where he leads the development of agentic AI systems that transform code reviews and developer workflows. As an entrepreneur and award-winning researcher, he has been building large-scale machine learning and AI systems since 2007 and has published over a dozen papers in leading conferences including NeurIPS, ICML, and AAAI, and was an early pioneer in generative AI.