Connect with us

사상 리더

2026년에도 인터넷은 계속 끊어질 것이며, AI가 그 이유 중 하나다

mm

2025년이 인터넷이 계속 끊어지는 한 해처럼 느껴졌다면, 2026년은 더욱 심해질 조짐을 보이고 있습니다. 중단, 사고, 운영 장애는 더 이상 엔지니어링 팀을 놀라게 하는 드문 사건이 아닙니다. 그것들은 현대 소프트웨어 개발의 지속적인 배경 조건이 되어가고 있습니다. IsDown.app과 같은 중단 추적기의 데이터는 2022년 이후 의미 있는 반전 없이 해마다 증가하는 사고를 보여주며, 독립적인 조사들도 이를 뒷받침합니다. 1,000명 이상의 CIO, CISO, 네트워크 엔지니어를 대상으로 한 글로벌 설문조사에 따르면, 조직의 84%가 중단 증가를 보고했으며, 절반 이상이 불과 2년 만에 10~24%의 증가를 목격했습니다. ThousandEyes도 유사한 변동성을 관찰했는데, 이는 고립된 실패가 아닌 지속적인 상향 압력을 가리키는 급격한 월간 변동을 보였습니다. 불편한 결론은 클라우드 인프라, 가시성, 자동화에 대한 수년간의 투자에도 불구하고, 우리가 매일 의존하는 시스템이 더 회복탄력적이기보다는 더 취약해지고 있다는 점입니다. 주요 플랫폼이 다운되면, 그 영향 범위는 즉각적입니다. 결제가 실패하고, 소비자 앱이 멈추며, 내부 도구가 마비되고, 전체 공급망이 경제적 손실 추정치가 수십억 달러에 이르는 영향을 받습니다. 예를 들어, 전자상거래 선도 기업인 Amazon은 생성형 AI의 도움을 받은 변경 사항으로 인해—이번 달에는 웹사이트와 쇼핑 앱의 거의 6시간 동안의 중단을 포함하여—사고가 증가했다고 밝혔습니다. 이로 인해 회사는 최근 급증한 중단 사태를 심층 분석하기 위한 엔지니어링 회의를 예정하게 되었습니다. 대규모 중단이 있을 때마다, 중복성, 멀티 클라우드 전략, 공급업체 집중 리스크에 대해 동일한 대화가 반복됩니다. 그런 논의는 중요하지만, 더 큰 그림을 놓치고 있습니다. 인프라 제공업체들이 자신들의 업무를 더 못하게 수행하는 것이 아니고 도구들이 계속 성숙해지고 있다면, 어떻게 사고가 여전히 증가하고 있을까요?

AI가 소프트웨어 배포 방식을 바꾸었다

이러한 중단 증가와 동시에 일어나고 있는 가장 큰 변화 중 하나는 AI 지원 소프트웨어 개발의 확산입니다. AI 코딩 도구는 더 이상 실험적이지 않습니다. 그것들은 IDE나 CLI에서든 일상적인 워크플로우에 내장되어, AI로 코드를 생성하는 것을 그 어느 때보다 쉽게 만들었습니다. 전 산업에 걸쳐, 개발자당 풀 리퀘스트가 실질적으로 증가했으며, 일부 분석에 따르면 AI가 생산성을 가속화함에 따라 약 20%의 전년 대비 급증을 보였습니다. 동시에, 풀 리퀘스트당 사고 건수는 더 빠르게 증가하여, 23% 이상 증가했습니다. 이 상관관계가 인과관계를 증명하는 것은 아니지만, 무시하기 어렵습니다. AI는 코드를 더 빠르게 작성하게 할 뿐만 아니라, 리스크의 형태를 바꿉니다. 현재 대부분의 팀은 숙련된 엔지니어들이 스스로는 도입하지 않았을 것이라고 확신하는, AI 지원 코드의 꾸준한 버그 흐름을 마주하고 있습니다. 이것들은 극적인 구문 오류나 명백하게 잘못된 변경 사항이 아닙니다. 그것들은 미묘한 논리적 오류, 잘못된 구성, 누락된 안전 장치, 그리고 한눈에 보기에는 합리적으로 보이는 엣지 케이스 실패입니다. AI 생성 코드는 종종 깔끔하게 컴파일되고, 기본 테스트를 통과하며, 그럴듯하게 올바르게 읽힙니다. 문제는 AI가 새로운 종류의 버그를 만들어낸다는 것이 아닙니다. 문제는 익숙한 버그를 더 자주, 그리고 기존의 리뷰 및 QA 프로세스를 압도하는 규모로 생산한다는 점입니다.

AI가 더 많은 코드를 작성할 때 데이터가 보여주는 것

우리는 최근 State of AI vs. Human Code Generation Report에서 이러한 직관에 수치를 부여하기 위해 수백 개의 오픈소스 풀 리퀘스트를 분석했습니다. AI가 공동 작성한 변경 사항을 인간만의 풀 리퀘스트와 비교하고 규모를 정규화했을 때, AI 지원 PR에는 전체적으로 약 1.7배 더 많은 문제점이 포함되어 있었습니다. 더 우려되는 점은, 위험 및 주요 문제점도 1.4–1.7배 더 많았다는 것입니다. 결함 있는 제어 흐름, 잘못된 의존성 사용, 구성 오류를 포함한 논리 및 정확성 문제는 약 75% 더 흔했습니다. 누락된 null 검사, 불완전한 예외 경로, 부재한 안전 장치와 같은 오류 처리 격차는 거의 두 배 더 자주 나타났습니다. 보안 문제도 증폭되었으며, 일부 범주는 최대 2.7배 높은 비율로 발생했는데, 특히 자격 증명 처리와 안전하지 않은 객체 참조와 관련된 부분에서 그러했습니다. 동시성 및 의존성 정확성 문제도 약 2배 증가했습니다. 인간도 동일한 실수를 하지만, AI가 관여할 때 이러한 결함은 더 자주, 더 큰 코드베이스 전체에 걸쳐, 그리고 전통적인 코드 리뷰를 앞지르는 속도로 발생합니다. 이것들은 빠른 리뷰를 통과해 나중에 운영 환경에서 보안 사고나 중단으로 나타날 가능성이 높은 정확한 유형의 결함들입니다.

2026년이 다르게 보일지 결정하는 요소

보안 관점에서 볼 때, 이 추세는 무시하기 어렵습니다. 논리적 결함, 안전하지 않은 기본값, 구성 오류는 단일 취약점이 고립되어서는 치명적으로 보이지 않더라도 공격 표면을 확장시킵니다. 오류 처리 격차와 의존성 실수는 실패가 안전하게 저하되기보다는 연쇄적으로 발생할 가능성을 높입니다. 강력한 격리, 최소 권한 실행, 수명이 짧은 자격 증명, 암호화는 무언가 잘못되었을 때 영향 범위를 제한할 수 있지만, 개발 수명주기 초기에 도입된 결함을 보상할 수는 없습니다. 보안과 안정성은 더 이상 단순히 인프라 문제가 아니며, 소프트웨어가 어떻게 구축, 검토, 테스트되는지에 대한 직접적인 결과입니다. 이 불균형이 지속된다면 2026년에도 인터넷은 계속 끊어질 것입니다. 이것은 AI에 반대하는 주장이 아닙니다. AI는 이미 여기에 있고 사라지지 않을 것이기 때문입니다. 가장 잘 해낼 팀들은 AI를 피하는 팀들이 아니라, AI에 맞게 자신들의 안전 장치를 적응시키는 팀들입니다. 그것은 더 높은 산출물에 맞게 리뷰 및 QA 팀에 적절히 자원을 할당하고, 개발 루프에서 테스트와 검증을 더 앞당기며, 어떤 AI 생성 문제가 더 깊은 검토를 받을 가치가 있는지 명시하고, AI 지원 코드를 기본적으로 신뢰할 수 있는 산출물이 아니라 변동성이 더 높은 입력으로 취급하는 것을 의미합니다. 교훈은 간단합니다: 책임에서 벗어나기 위해 자동화할 수 없습니다. AI가 더 많은 코드를 작성할수록, 팀들은 더 적은 코드가 아닌 더 많은 코드를 검토할 시간, 도구, 인원이 필요합니다. AI 혁신의 다음 단계는 코드가 얼마나 빨리 생성되는지가 아니라, 얼마나 확신을 가지고 배포할 수 있는지에 의해 정의될 것입니다.

이제 리뷰가 병목 현상이다

AI는 코드 생성 능력을 극적으로 증가시켰습니다. 그것이 자동으로 리뷰 능력을 증가시키지는 않았습니다. 그 격차가 위험을 만듭니다. AI 도입의 다음 단계는 코드가 얼마나 빨리 생성되는지에 의해 정의되지 않을 것입니다. 그것은 팀들이 얼마나 확신을 가지고 코드를 배포할 수 있는지에 의해 정의될 것입니다. 그것은 다음을 의미합니다:

  • 더 낮은 것이 아닌 더 높은 산출물을 위한 리뷰 및 QA에 자원을 할당하기.
  • 검증을 개발 루프에서 더 앞당기기.
  • 풀 리퀘스트에서 신호를 증가시켜 검토자가 중요한 것에 집중하도록 하기.
  • AI 지원 코드를 더 가벼운 감독이 아닌 더 깊은 검토를 받을 가치가 있는 것으로 취급하기.

인터넷이 계속 끊어질 필요는 없습니다. AI가 근본적인 문제가 아닙니다, 검토되지 않은 AI 생성 코드가 문제입니다. AI가 운영 소프트웨어의 점점 더 많은 부분을 작성하게 된다면, 배포되기 전에 그것을 검토할 동등하게 엄격한 무언가가 필요합니다. 그러한 변화가 바로 AI 코드 리뷰가 선택적 도구가 아닌 기반 인프라가 되어가고 있는 이유입니다. CodeRabbit과 같은 플랫폼은 상황 인식 AI 리뷰를 Git 워크플로우에 직접 내장하여, 팀들이 논리 오류, 보안 격차, 엣지 케이스가 사고로 변하기 전에 포착할 수 있도록 돕습니다. 왜냐하면 코드 생성이 확장되면, 리뷰도 그것과 함께 확장되어야 하기 때문입니다. 그렇지 않으면, 2026년은 2025년과 정확히 똑같이 보일 것입니다—단지 더 빠를 뿐입니다.

David Loker is the Vice President of AI at CodeRabbit where he leads the development of agentic AI systems that transform code reviews and developer workflows. As an entrepreneur and award-winning researcher, he has been building large-scale machine learning and AI systems since 2007 and has published over a dozen papers in leading conferences including NeurIPS, ICML, and AAAI, and was an early pioneer in generative AI.