Connect with us

Lãnh đạo tư tưởng

Internet Sẽ Tiếp Tục Gặp Sự Cố Vào Năm 2026 Và AI Là Một Phần Nguyên Nhân

mm

Nếu năm 2025 cảm giác như một năm internet liên tục gặp sự cố, thì năm 2026 đang định hình để trở nên tương tự. Các vụ ngừng hoạt động, sự cố và lỗi sản xuất không còn là những sự kiện hiếm gặp làm các đội kỹ thuật ngạc nhiên. Chúng đang trở thành một điều kiện nền ổn định của phát triển phần mềm hiện đại. Dữ liệu từ các công cụ theo dõi sự cố như IsDown.app cho thấy các sự cố tăng dần qua từng năm kể từ 2022, mà không có sự đảo chiều đáng kể nào, và các cuộc khảo sát độc lập cũng ủng hộ điều này. Một cuộc thăm dò toàn cầu với hơn 1.000 CIO, CISO và kỹ sư mạng cho thấy 84% tổ chức báo cáo về việc gia tăng các vụ ngừng hoạt động, với hơn một nửa chứng kiến mức tăng từ 10–24% chỉ trong hai năm. ThousandEyes cũng quan sát thấy sự biến động tương tự, với những biến động mạnh từ tháng này sang tháng khác cho thấy áp lực tăng liên tục hơn là các lỗi riêng lẻ. Điều rút ra khó chịu là các hệ thống chúng ta dựa vào hàng ngày đang trở nên mong manh hơn, chứ không kiên cường hơn, bất chấp nhiều năm đầu tư vào cơ sở hạ tầng đám mây, khả năng quan sát và tự động hóa. Khi các nền tảng lớn ngừng hoạt động, phạm vi ảnh hưởng là ngay lập tức. Thanh toán thất bại, ứng dụng tiêu dùng đóng băng, công cụ nội bộ ngừng trệ, và toàn bộ chuỗi cung ứng cảm nhận tác động với ước tính thiệt hại kinh tế thường xuyên lên đến hàng tỷ đô la. Chẳng hạn, Amazon, một nhà lãnh đạo trong thương mại điện tử, quy cho sự gia tăng các sự cố—bao gồm một vụ ngừng hoạt động gần sáu giờ của trang web và ứng dụng mua sắm của họ trong tháng này—là do những thay đổi được hỗ trợ bởi AI Tạo sinh. Điều này đã thúc đẩy công ty lên lịch các cuộc họp kỹ thuật để đi sâu vào đợt gia tăng sự cố gần đây. Sau mỗi vụ ngừng hoạt động lớn, những cuộc trò chuyện tương tự lại lặp lại xoay quanh tính dự phòng, chiến lược đa đám mây và rủi ro tập trung nhà cung cấp. Những thảo luận đó quan trọng, nhưng chúng bỏ lỡ bức tranh tổng thể. Nếu các nhà cung cấp hạ tầng không trở nên tệ hơn trong việc họ làm và công cụ tiếp tục trưởng thành, thì làm thế nào các sự cố vẫn đang gia tăng?

AI đã thay đổi cách phần mềm được phát hành

Một trong những thay đổi lớn nhất xảy ra đồng thời với sự gia tăng các vụ ngừng hoạt động này là sự lan rộng của phát triển phần mềm được hỗ trợ bởi AI. Công cụ mã hóa AI không còn là thử nghiệm. Chúng được nhúng vào quy trình làm việc hàng ngày, dù trong IDE hay CLI, giúp việc tạo mã bằng AI dễ dàng hơn bao giờ hết. Trên toàn ngành, số lượng pull request trên mỗi nhà phát triển đã tăng lên đáng kể, với một số phân tích cho thấy mức tăng khoảng 20% so với cùng kỳ năm ngoái khi AI đẩy nhanh đầu ra. Đồng thời, số sự cố trên mỗi pull request đã tăng thậm chí còn nhanh hơn, tăng hơn 23%. Sự tương quan đó không phải là bằng chứng về quan hệ nhân quả, nhưng khó có thể phớt lờ. AI không chỉ giúp viết mã nhanh hơn, nó thay đổi hình thái của rủi ro. Đến thời điểm này, hầu hết các nhóm đã gặp phải một dòng lỗi liên tục trong mã được AI hỗ trợ mà các kỹ sư có kinh nghiệm tự tin rằng họ sẽ không tự mình tạo ra. Đây không phải là những lỗi cú pháp nghiêm trọng hay những thay đổi bị hỏng rõ ràng. Chúng là những lỗi logic tinh vi, cấu hình sai, thiếu biện pháp bảo vệ và lỗi trường hợp biên trông có vẻ hợp lý khi thoáng nhìn. Mã được AI tạo ra thường biên dịch sạch sẽ, vượt qua các bài kiểm tra cơ bản và đọc có vẻ đúng. Vấn đề không phải là AI phát minh ra các loại lỗi mới. Mà là nó tạo ra các lỗi quen thuộc thường xuyên hơn và ở quy mô áp đảo các quy trình xem xét và đảm bảo chất lượng hiện có.

Dữ liệu cho thấy điều gì khi AI viết nhiều mã hơn

Gần đây chúng tôi đã phân tích hàng trăm pull request mã nguồn mở để giúp đưa ra các con số cho trực giác này trong Báo cáo Tình trạng Tạo mã AI so với Con người của chúng tôi. Khi so sánh các thay đổi được đồng tác giả bởi AI với các pull request chỉ của con người và được chuẩn hóa theo quy mô, các PR được AI hỗ trợ chứa nhiều hơn khoảng 1,7 lần vấn đề tổng thể. Đáng lo ngại hơn, chúng cũng cho thấy nhiều hơn 1,4–1,7 lần các vấn đề nghiêm trọng và chính. Các vấn đề về logic và tính đúng đắn, bao gồm luồng điều khiển sai, sử dụng phụ thuộc không chính xác và lỗi cấu hình, phổ biến hơn khoảng 75%. Các khoảng trống xử lý lỗi như thiếu kiểm tra null, đường dẫn ngoại lệ không đầy đủ và thiếu biện pháp bảo vệ xuất hiện gần gấp đôi tần suất. Các vấn đề bảo mật cũng được khuếch đại, với một số danh mục xảy ra ở tỷ lệ lên đến 2,7 lần cao hơn, đặc biệt xung quanh việc xử lý thông tin xác thực và tham chiếu đối tượng không an toàn. Các vấn đề về tính đúng đắn của đồng thời và phụ thuộc cũng tăng khoảng 2 lần. Con người cũng mắc những sai lầm tương tự, nhưng khi có sự tham gia của AI, các khiếm khuyết này xảy ra thường xuyên hơn, trên một cơ sở mã lớn hơn và với tốc độ vượt qua quy trình xem xét mã truyền thống. Đây chính xác là các loại khiếm khuyết có khả năng lọt qua quá trình xem xét nhanh và sau đó biểu hiện thành các sự cố bảo mật hoặc ngừng hoạt động trong môi trường sản xuất.

Điều gì quyết định liệu năm 2026 có khác biệt

Từ góc độ bảo mật, xu hướng này khó có thể phớt lờ. Các lỗ hổng logic, mặc định không an toàn và lỗi cấu hình mở rộng bề mặt tấn công ngay cả khi không có lỗ hổng đơn lẻ nào trông có vẻ thảm khốc. Các khoảng trống xử lý lỗi và sai lầm về phụ thuộc làm tăng khả năng các lỗi thất bại lan truyền thay vì suy giảm một cách an toàn. Việc cô lập mạnh mẽ, thực thi đặc quyền tối thiểu, thông tin xác thực tồn tại ngắn hạn và mã hóa có thể giới hạn phạm vi ảnh hưởng nếu có điều gì đó sai sót, nhưng chúng không thể bù đắp cho các khiếm khuyết được đưa vào sớm hơn trong vòng đời phát triển. Bảo mật và độ tin cậy không còn chỉ là mối quan tâm về hạ tầng, mà là hệ quả trực tiếp của cách phần mềm được xây dựng, xem xét và kiểm tra. Internet sẽ tiếp tục gặp sự cố vào năm 2026 nếu sự mất cân đối này vẫn còn. Đó không phải là lập luận chống lại AI, vì AI đã ở đây và nó sẽ không biến mất. Các nhóm sẽ hoạt động tốt nhất không phải là những nhóm tránh sử dụng AI, mà là những nhóm điều chỉnh các biện pháp bảo vệ của họ để phù hợp với nó. Điều đó có nghĩa là cung cấp nguồn lực phù hợp cho các nhóm xem xét và đảm bảo chất lượng để đáp ứng đầu ra cao hơn, chuyển việc kiểm tra và xác thực sớm hơn trong vòng lặp phát triển, làm rõ những vấn đề do AI tạo ra nào xứng đáng được xem xét sâu hơn, và coi mã được AI hỗ trợ là đầu vào có phương sai cao hơn thay vì đầu ra đáng tin cậy theo mặc định. Bài học rất đơn giản: bạn không thể tự động hóa để thoát khỏi trách nhiệm giải trình. Khi AI viết nhiều mã hơn, các nhóm cần thời gian, công cụ và nhân sự để xem xét nhiều mã hơn, chứ không phải ít hơn. Giai đoạn đổi mới AI tiếp theo sẽ không được định nghĩa bởi tốc độ mã được tạo ra, mà bởi mức độ tự tin nó có thể được phát hành.

Xem xét giờ đây là nút thắt cổ chai

AI đã tăng đáng kể năng lực tạo mã. Nó không tự động tăng năng lực xem xét. Khoảng cách đó tạo ra rủi ro. Giai đoạn tiếp theo của việc áp dụng AI sẽ không được định nghĩa bởi tốc độ mã được tạo ra. Nó sẽ được định nghĩa bởi mức độ tự tin các nhóm có thể phát hành nó. Điều đó có nghĩa là:

  • Cung cấp nguồn lực cho việc xem xét và đảm bảo chất lượng để đáp ứng đầu ra cao hơn, không phải thấp hơn.
  • Chuyển việc xác thực sớm hơn trong vòng lặp phát triển.
  • Tăng tín hiệu trong các pull request để người xem xét tập trung vào những gì quan trọng.
  • Coi mã được AI hỗ trợ là xứng đáng được xem xét sâu hơn, không phải giám sát nhẹ hơn.

Internet không nhất thiết phải tiếp tục gặp sự cố. AI không phải là vấn đề gốc rễ, mà mã do AI tạo ra không được xem xét mới là. Nếu AI sẽ viết một phần ngày càng lớn phần mềm sản xuất, thì một thứ gì đó nghiêm ngặt tương đương cần phải xem xét nó trước khi nó được phát hành. Sự thay đổi đó chính xác là lý do tại sao việc xem xét mã AI đang trở thành cơ sở hạ tầng nền tảng, không phải công cụ tùy chọn. Các nền tảng như CodeRabbit nhúng các đánh giá AI nhận thức ngữ cảnh trực tiếp vào quy trình làm việc Git của bạn, giúp các nhóm phát hiện lỗi logic, khoảng trống bảo mật và trường hợp biên trước khi chúng biến thành sự cố. Bởi vì nếu việc tạo mã mở rộng quy mô, thì việc xem xét cũng phải mở rộng quy mô cùng với nó. Nếu không, năm 2026 sẽ trông giống hệt như năm 2025 – chỉ là nhanh hơn.

David Loker is the Vice President of AI at CodeRabbit where he leads the development of agentic AI systems that transform code reviews and developer workflows. As an entrepreneur and award-winning researcher, he has been building large-scale machine learning and AI systems since 2007 and has published over a dozen papers in leading conferences including NeurIPS, ICML, and AAAI, and was an early pioneer in generative AI.