关注我们.

思想领袖

2026年互联网将持续突破,人工智能是部分原因

mm

如果说2025年是互联网故障频发的一年,那么2026年似乎也难逃此劫。系统宕机、事故和生产故障不再是令工程团队措手不及的罕见事件,而是逐渐成为现代软件开发中一种常态。

来自故障跟踪器的数据 IsDown.app 显示事件 自2022年以来逐年攀升而且这种趋势没有出现任何实质性的逆转,独立调查也证实了这一点。一项针对1,000多名首席信息官、首席信息安全官和网络工程师的全球调查发现: 84%的组织报告称服务中断次数增加其中超过一半的人表示,短短两年内,他们的收入增长了 10% 至 24%。

ThousandEyes 观察到了类似的波动性。每月剧烈的波动表明,持续的上涨压力而非孤立的故障才是主要原因。令人不安的结论是,尽管多年来在云基础设施、可观测性和自动化方面投入巨资,我们每天依赖的系统却变得越来越脆弱,而不是越来越有韧性。

当大型平台宕机时,冲击波会立即波及范围很广。支付系统瘫痪,消费者应用程序卡顿,内部工具停止运行,整个供应链都会受到影响。 经济损失估计通常高达数十亿美元。。 例如, 电子商务巨头亚马逊将事件增加归因于……——包括本月其网站和购物应用程序近六小时的宕机——这些变化都得益于生成式人工智能的辅助。这促使该公司安排工程团队会议,深入调查近期宕机事件激增的原因。

每次发生大规模故障后,人们总会重复讨论冗余、多云策略和供应商集中风险等问题。这些讨论固然重要,但却忽略了更重要的方面。

如果基础设施提供商的服务水平没有下降,工具也不断成熟,为什么事故数量还在增加?

人工智能改变了软件交付方式

与系统故障频发同时发生的一大转变是人工智能辅助软件开发的普及。人工智能编码工具不再是实验性质的,而是已经融入到日常工作流程中,无论是集成开发环境(IDE)还是命令行界面(CLI),都使得使用人工智能生成代码变得前所未有的轻松。

整个行业中,每个开发者的拉取请求数量显著增加,一些分析显示,大约有 人工智能加速产出,同比增长 20%。 与此同时,每个拉取请求的事件发生率增长速度甚至更快。 增长超过23%.

这种相关性并不能证明因果关系,但却难以忽视。人工智能不仅提高了代码编写速度,也改变了风险的形态。如今,大多数团队都遇到过人工智能辅助代码中不断出现的bug,而经验丰富的工程师们却自信地认为,这些bug是他们自己不会引入的。

这些并非严重的语法错误或显而易见的破坏性变更,而是一些不易察觉的逻辑错误、配置错误、缺失的保护机制以及乍看之下合理的极端情况故障。

人工智能生成的代码通常编译无误,通过基本测试,而且读起来也基本正确。问题不在于人工智能会制造出新型的bug,而在于它更频繁、更大规模地生成常见的bug,以至于现有的代码审查和质量保证流程不堪重负。

数据显示,人工智能编写更多代码时会发生什么

我们最近分析了数百个开源拉取请求,以帮助我们用数据来佐证这种直觉。 人工智能与人类代码生成现状报告当将人工智能参与修改的请求与仅由人类提交的拉取请求进行比较,并按大小进行标准化后, 人工智能辅助的公关稿件总体上包含的问题数量大约是原来的 1.7 倍。

更令人担忧的是,他们还表现出 关键和重大问题数量是原来的 1.4-1.7 倍。逻辑和正确性问题,包括控制流缺陷、依赖项使用不当和配置错误,出现频率高出约 75%。错误处理方面的缺陷,例如缺少空值检查、异常处理路径不完整以及缺少防护措施,出现频率几乎翻了一番。

安全问题也随之加剧,某些类别的发生率高达 2.7x高尤其是在凭证处理和不安全对象引用方面。并发性和依赖关系正确性问题也存在。 大约增加了2倍.

人类也会犯同样的错误,但当人工智能介入时,这些缺陷出现的频率更高,涉及的代码库更大,而且出现速度远超传统的代码审查。这些​​缺陷最容易被快速审查忽略,最终在生产环境中演变成安全事件或系统故障。

什么决定了2026年是否会有所不同

从安全角度来看,这种趋势不容忽视。逻辑缺陷、不安全的默认设置和配置错误会扩大攻击面,即使单个漏洞单独来看似乎并不致命。错误处理方面的漏洞和依赖关系错误会增加故障级联而非安全降级的可能性。

强大的隔离机制、最小权限执行原则、短有效期凭证和加密技术可以在出现问题时限制影响范围,但它们无法弥补开发生命周期早期引入的缺陷。安全性和可靠性不再仅仅是基础设施的问题,而是软件构建、审查和测试方式的直接结果。

如果这种不平衡持续下去,互联网在2026年仍将面临崩溃。但这并非反对人工智能的理由,因为人工智能已经到来,而且不会消失。最终能够脱颖而出的团队并非那些回避人工智能的团队,而是那些调整自身机制以适应人工智能的团队。

这意味着要适当地为审查和质量保证团队配备资源以提高产出,将测试和验证提前到开发循环中,明确哪些人工智能生成的问题值得更深入的审查,并将人工智能辅助代码视为高变异性输入,而不是默认的可信输出。

教训很简单:自动化无法逃避责任。随着人工智能编写的代码越来越多,团队需要更多的时间、工具和人手来审查更多的代码,而不是更少。人工智能创新的下一阶段,决定其发展方向的不再是代码生成的速度,而是代码交付的可靠性。

审核现在是瓶颈

人工智能极大地提升了代码生成能力,但并未自动提升代码审查能力。这种差距会带来风险。人工智能应用的下一阶段,其关键不在于代码生成速度,而在于团队交付代码的信心。

这意味着:

  • 资源审查和质量保证旨在提高产量,而不是降低产量。
  • 将验证环节提前到开发周期的早期阶段。
  • 提高拉取请求中的信号强度,以便审阅者专注于重要事项。
  • 对人工智能辅助代码应进行更严格的审查,而不是更宽松的监管。

互联网不必总是崩溃。人工智能本身并非问题所在,真正的问题在于未经审查的人工智能生成代码。如果人工智能要在生产软件中占据越来越大的份额,那么在发布之前,就必须有同样严格的审查机制。

正是这种转变使得人工智能代码审查成为基础架构,而非可有可无的工具。像 CodeRabbit 这样的平台将上下文感知型人工智能审查直接嵌入到 Git 工作流程中,帮助团队在逻辑错误、安全漏洞和极端情况演变成安全事件之前将其发现并解决。

因为如果代码生成规模扩大,代码审查也必须随之扩大。

否则,2026 年将与 2025 年一模一样——只是速度更快。

David Loker是人工智能副总裁 码兔 他领导开发智能体人工智能系统,以革新代码审查和开发者工作流程。作为一名企业家和屡获殊荣的研究员,他自 2007 年以来一直致力于构建大规模机器学习和人工智能系统,并在 NeurIPS、ICML 和 AAAI 等顶级会议上发表了十几篇论文,同时也是生成式人工智能领域的早期开拓者之一。