Connect with us

ソートリーダー

インターネットは2026年も障害を繰り返す、AIが一因

mm

2025年がインターネットの障害が続いた年だと感じたなら、2026年はさらに同様の状況が予想される。停止、インシデント、本番環境の障害は、もはやエンジニアリングチームを驚かせる稀な出来事ではない。それらは現代のソフトウェア開発における恒常的な背景条件となりつつある。 IsDown.appのような障害追跡サイトのデータは、2022年以降、インシデントが年々増加していることを示しており、有意な反転は見られず、独立した調査もこれを裏付けている。1,000人以上のCIO、CISO、ネットワークエンジニアを対象とした世界的な調査では、84%の組織が障害の増加を報告しており、半数以上がわずか2年間で10〜24%の増加を経験していた。 ThousandEyesも同様の不安定性を観測しており、孤立した障害ではなく、持続的な上昇圧力を示す月ごとの急激な変動が見られた。不快な結論は、クラウドインフラ、オブザーバビリティ、自動化への長年の投資にもかかわらず、私たちが毎日頼っているシステムはより強靭になるのではなく、より脆弱になっているということだ。 主要なプラットフォームがダウンすると、その影響範囲は即座に広がる。支払いが失敗し、消費者向けアプリがフリーズし、内部ツールが停止し、サプライチェーン全体が影響を受け、経済的損失の推定額は日常的に数十億ドルに達している。例えば、eコマースのリーダーであるAmazonは、インシデントの増加——今月発生した同社のウェブサイトとショッピングアプリの約6時間に及ぶ障害を含む——を生成AIが支援した変更に起因するとしている。これを受け、同社は最近の障害急増について深く掘り下げるためのエンジニアリング会議を予定している。 大規模な障害が発生するたびに、冗長性、マルチクラウド戦略、ベンダー集中リスクについて同じ会話が繰り返される。それらの議論は重要だが、より大きな全体像を見逃している。 インフラプロバイダーの能力が低下しているわけでもなく、ツールが成熟し続けているのであれば、なぜインシデントは依然として増加しているのか?

AIがソフトウェアの出荷方法を変えた

この障害の増加と同時に起きている最大の変化の一つは、AI支援型ソフトウェア開発の普及である。AIコーディングツールはもはや実験的なものではない。それらはIDEやCLIを問わず、日常のワークフローに組み込まれており、AIでコードを生成することがかつてないほど容易になっている。 業界全体で、開発者あたりのプルリクエスト数は実質的に増加しており、AIが出力を加速させることで、前年比で約20%の急増を示しているとする分析もある。同時に、プルリクエストあたりのインシデント数はさらに速いペースで増加しており、23%以上増加している。 この相関関係は因果関係の証明ではないが、無視するのは難しい。AIは単にコードを書く速度を速めるだけでなく、リスクの形を変える。今では、ほとんどのチームが、経験豊富なエンジニアが自分では導入しなかったと確信しているような、AI支援コードにおける絶え間ないバグの流れに遭遇している。 これらは劇的な構文エラーや明らかに壊れた変更ではない。一見すると合理的に見える、微妙な論理ミス、設定ミス、ガードレールの欠如、エッジケースの失敗である。 AI生成コードは、しばしばクリーンにコンパイルされ、基本的なテストを通過し、一見正しく読める。問題は、AIが新しい種類のバグを発明することではない。既存のレビューやQAプロセスを圧倒する規模と頻度で、よく知られたバグをより頻繁に生み出すことだ。

AIがより多くのコードを書く時にデータが示すもの

私たちは最近、この直感を裏付ける数値を提供するため、数百のオープンソースプルリクエストを分析し、State of AI vs. Human Code Generation Reportにまとめた。AIが共同作成した変更を人間のみのプルリクエストと比較し、サイズを正規化したところ、AI支援PRには全体的に約1.7倍多くの問題が含まれていた。 さらに懸念されることに、それらは1.4〜1.7倍多くの重大および主要な問題も示した。欠陥のある制御フロー、誤った依存関係の使用、設定エラーを含む論理および正確性の問題は約75%多く見られた。ヌルチェックの欠落、不完全な例外パス、ガードレールの不在などのエラー処理のギャップは、ほぼ2倍の頻度で現れた。 セキュリティ問題も増幅され、一部のカテゴリーでは発生率が最大2.7倍高くなり、特に資格情報の扱いや安全でないオブジェクト参照の周辺で顕著だった。並行性と依存関係の正確性に関する問題も約2倍増加した。 人間も同じ間違いを犯すが、AIが関与すると、これらの欠陥はより頻繁に、より大きなコードベース全体で、従来のコードレビューを上回る速度で発生する。これらは、迅速なレビューをすり抜け、後で本番環境におけるセキュリティインシデントや障害として現れる可能性が高い、まさにその種類の欠陥である。

2026年の様相を決めるもの

セキュリティの観点から、この傾向は無視しがたい。論理欠陥、安全でないデフォルト、設定エラーは、単独では壊滅的に見える脆弱性がなくても、攻撃対象領域を拡大する。エラー処理のギャップと依存関係のミスは、障害が安全に劣化するのではなく、連鎖的に発生する可能性を高める。 強力な分離、最小権限での実行、短期間の資格情報、暗号化は、何か問題が発生した場合の影響範囲を制限できるが、開発ライフサイクルの早い段階で導入された欠陥を補うことはできない。セキュリティと信頼性は、もはや単なるインフラの懸念事項ではなく、ソフトウェアがどのように構築、レビュー、テストされるかの直接的な結果となっている。 この不均衡が続けば、インターネットは2026年も障害を繰り返すだろう。これはAIに対する反論ではない。AIはすでにここにあり、なくなることはないからだ。最もうまくいくチームは、AIを避けるチームではなく、それに合わせてガードレールを適応させるチームである。 それは、より高い出力に対してレビューとQAチームに適切にリソースを配分すること、開発ループのより早い段階にテストと検証を移行すること、どのAI生成の問題がより深い精査に値するかを明確にすること、そしてAI支援コードをデフォルトでは信頼できる出力ではなく、ばらつきの大きい入力として扱うことを意味する。 教訓は単純だ:責任を自動化で回避することはできない。AIがより多くのコードを書くにつれて、チームはより少なくではなく、より多くのコードをレビューするための時間、ツール、人員を必要とする。AI革新の次の段階は、コードがどれだけ速く生成されるかではなく、どれだけ自信を持って出荷できるかによって定義されるだろう。

レビューが今やボトルネックである

AIはコード生成能力を劇的に増加させた。しかし、レビュー能力は自動的には増加しなかった。そのギャップがリスクを生む。AI導入の次の段階は、コードがどれだけ速く生成されるかによって定義されるのではなく、チームがそれをどれだけ自信を持って出荷できるかによって定義される。 それは以下のことを意味する:

  • より高い出力のために、レビューとQAにリソースを配分すること。
  • 開発ループのより早い段階に検証を移行すること。
  • プルリクエスト内のシグナルを増やし、レビュアーが重要なことに集中できるようにすること。
  • AI支援コードを、より軽い監視ではなく、より深い精査に値するものとして扱うこと。

インターネットが障害を繰り返し続ける必要はない。AIが根本的な問題なのではなく、レビューされていないAI生成コードが問題なのだ。AIが本番ソフトウェアのますます大きな割合を書くのであれば、同様に厳格な何かが、出荷前にそれをレビューする必要がある。 この変化こそが、AIコードレビューがオプションのツールではなく、基盤となるインフラになりつつある理由である。CodeRabbitのようなプラットフォームは、コンテキストを認識したAIレビューを直接Gitワークフローに組み込み、チームがロジックエラー、セキュリティギャップ、エッジケースをインシデントに変わる前に捕捉するのを支援する。 なぜなら、コード生成が拡大するなら、レビューもそれに合わせて拡大しなければならないからだ。 そうでなければ、2026年は2025年とまったく同じに見えるだろう——ただ、より速く。

David Loker is the Vice President of AI at CodeRabbit where he leads the development of agentic AI systems that transform code reviews and developer workflows. As an entrepreneur and award-winning researcher, he has been building large-scale machine learning and AI systems since 2007 and has published over a dozen papers in leading conferences including NeurIPS, ICML, and AAAI, and was an early pioneer in generative AI.