思想领袖
互联网在2026年将持续崩溃,AI是部分原因

如果说2025年给人的感觉是互联网持续崩溃的一年,那么2026年似乎也将如此。中断、事故和生产故障已不再是让工程团队感到意外的罕见事件。它们正成为现代软件开发中一种稳定的背景状态。 来自IsDown.app等中断追踪器的数据显示,自2022年以来,事故逐年攀升,且没有出现有意义的逆转,独立调查也证实了这一点。一项针对全球1000多名首席信息官、首席信息安全官和网络工程师的民意调查发现,84%的组织报告中断事件在增加,其中超过一半的组织在短短两年内中断事件增加了10-24%。 ThousandEyes观察到了类似的波动性,月度间的剧烈波动表明存在持续的上行压力,而非孤立的故障。一个令人不安的结论是,尽管多年来在云基础设施、可观测性和自动化方面进行了投资,但我们每天依赖的系统正变得更为脆弱,而非更具韧性。 当主要平台宕机时,影响范围是立竿见影的。支付失败、消费者应用冻结、内部工具陷入停滞,整个供应链都会受到影响,经济损失估计通常达到数十亿美元。例如,电子商务领导者亚马逊将事故的增加——包括本月其网站和购物应用近六小时的中断——归因于生成式AI辅助的变更。这促使该公司安排工程会议,深入探讨近期中断事件的激增。 每次重大中断之后,关于冗余、多云策略和供应商集中风险的相同对话都会重复出现。这些讨论很重要,但它们忽略了更大的图景。 如果基础设施提供商并未在其业务上变得更糟,且工具链持续成熟,那么事故为何仍在增加?
AI改变了软件的交付方式
与中断事件增加同时发生的最重大转变之一,是AI辅助软件开发的普及。AI编码工具已不再是实验性的。它们已嵌入到日常工作流程中,无论是在IDE还是CLI中,使得用AI生成代码变得比以往任何时候都更容易。 在整个行业中,每位开发者的拉取请求数量大幅增加,一些分析显示,随着AI加速产出,同比增长了约20%。与此同时,每个拉取请求的事故数量增长得更快,增加了23%以上。 这种相关性并非因果关系的证明,但很难忽视。AI不仅使编写代码更快,它还改变了风险的形态。到目前为止,大多数团队都遇到过AI辅助代码中源源不断的错误,经验丰富的工程师确信他们自己不会引入这些错误。 这些不是戏剧性的语法错误或明显损坏的变更。它们是细微的逻辑错误、配置错误、缺失的防护措施以及乍一看似乎合理的边缘情况故障。 AI生成的代码通常能顺利编译,通过基本测试,并且读起来似乎正确。问题不在于AI发明了新型错误,而在于它更频繁地产生熟悉的错误,并且其规模压倒了现有的审查和QA流程。
当AI编写更多代码时,数据揭示了什么
我们最近分析了数百个开源拉取请求,以便在我们的《AI与人类代码生成现状报告》中为这种直觉提供数据支持。当将AI共同创作的变更与纯人工拉取请求进行比较并按规模标准化后,AI辅助的PR总体上包含的问题大约多出1.7倍。 更令人担忧的是,它们还显示出1.4-1.7倍更多的关键和重大问题。逻辑和正确性问题,包括有缺陷的控制流、不正确的依赖项使用和配置错误,大约高出75%。错误处理漏洞,如缺失的空值检查、不完整的异常路径和缺失的防护措施,出现的频率几乎翻倍。 安全问题也被放大,某些类别的发生率高达2.7倍,尤其是在凭据处理和不安全对象引用方面。并发和依赖项正确性问题也增加了约2倍。 人类也会犯同样的错误,但当AI参与时,这些缺陷出现的频率更高,范围更广,并且速度超过了传统的代码审查。这些正是那种很可能在快速审查中漏过,随后在生产环境中表现为安全事故或中断的缺陷类型。
什么将决定2026年是否有所不同
从安全角度来看,这一趋势难以忽视。逻辑缺陷、不安全的默认设置和配置错误扩大了攻击面,即使单个漏洞孤立来看并不具有灾难性。错误处理漏洞和依赖项错误增加了故障级联而非安全降级的可能性。 强隔离、最小权限执行、短期凭据和加密可以在出现问题时限制影响范围,但它们无法弥补在开发生命周期早期引入的缺陷。安全性和可靠性不再仅仅是基础设施问题,而是软件如何构建、审查和测试的直接后果。 如果这种不平衡持续下去,互联网在2026年将继续崩溃。这并不是反对AI的论点,因为AI已经到来且不会消失。表现最好的团队不是那些回避AI的团队,而是那些调整其防护措施以适应AI的团队。 这意味着为更高的产出适当配备审查和QA团队资源,将测试和验证环节前移到开发循环的早期,明确哪些AI生成的问题值得更深入的审查,并将AI辅助的代码默认视为高方差输入而非可信输出。 教训很简单:你无法通过自动化来逃避责任。随着AI编写更多代码,团队需要更多的时间、工具和人员来审查更多代码,而不是更少。AI创新的下一阶段将不由代码生成的速度来定义,而将由代码交付的信心来定义。
审查现已成为瓶颈
AI极大地提高了代码生成能力。它并未自动提高审查能力。这种差距带来了风险。AI采用的下一阶段将不由代码生成的速度来定义。它将由团队交付代码的信心来定义。 这意味着:
- 为更高的产出,而非更低的产出,配备审查和QA资源。
- 将验证环节前移到开发循环的早期。
- 增加拉取请求中的信号,让审查者专注于重要事项。
- 将AI辅助的代码视为值得更深入审查,而非更宽松监督的对象。
互联网不必持续崩溃。AI不是根本问题,未经审查的AI生成代码才是。如果AI将要编写越来越多的生产软件,那么就需要同样严谨的东西在交付前对其进行审查。 这种转变正是AI代码审查正在成为基础架构而非可选工具的原因。像CodeRabbit这样的平台将上下文感知的AI审查直接嵌入到您的Git工作流程中,帮助团队在逻辑错误、安全漏洞和边缘情况演变为事故之前捕获它们。 因为如果代码生成规模扩大,审查也必须随之扩大。 否则,2026年将看起来和2025年一模一样——只是更快。












