Connect with us

Internet będzie nadal ulegał awariom w 2026 roku, a AI jest częścią powodu

Liderzy opinii

Internet będzie nadal ulegał awariom w 2026 roku, a AI jest częścią powodu

mm

Jeśli rok 2025 wydawał się rokiem, w którym internet ciągle ulegał awariom, rok 2026 wygląda na to, że będzie podobny. Przerwy, incydenty i awarie produkcyjne nie są już rzadkimi zdarzeniami, które zaskakują zespoły inżynierskie. Stają się one stałym tłem nowoczesnego rozwoju oprogramowania.

Dane z narzędzi do śledzenia awarii, takich jak IsDown.app, pokazują, że incydenty rosną od 2022 roku, bez żadnej znaczącej poprawy, a niezależne ankiety potwierdzają to. Globalny sondaż ponad 1000 CIO, CISO i inżynierów sieciowych wykazał, że 84% organizacji zgłosiło wzrost awarii, a ponad połowa z nich odnotowała wzrost o 10-24% w ciągu zaledwie dwóch lat.

ThousandEyes obserwował podobną zmienność, z ostrymi wahaniami miesiąc do miesiąca, które wskazują na trwałą presję w górę, a nie na izolowane awarie. Niepokojący wniosek jest taki, że systemy, na które codziennie polegamy, stają się bardziej kruche, a nie bardziej odporne, pomimo lat inwestycji w infrastrukturę chmurową, obserwowalność i automatyzację.

Gdy duże platformy ulegają awariom, promień rażenia jest natychmiastowy. Płatności nie są realizowane, aplikacje konsumentów zamarzają, wewnętrzne narzędzia zatrzymują się, a całe łańcuchy dostaw odczuwają wpływ z szacunkami strat gospodarczych sięgającymi miliardów. Na przykład, Amazon, lider w handlu elektronicznym, przypisuje wzrost incydentów – w tym prawie sześciogodzinną awarię swojej strony internetowej i aplikacji mobilnej w tym miesiącu – zmianom wspomaganym przez Generative AI. Spowodowało to, że firma zaplanowała spotkania inżynierskie w celu głębszego zbadania niedawnego wzrostu awarii.

Po każdej dużej awarii, te same rozmowy powtarzają się wokół redundancji, strategii wielochmurowych i ryzyka koncentracji dostawców. Te dyskusje są ważne, ale nie uwzględniają szerszego obrazu.

Jeśli dostawcy infrastruktury nie stają się gorsi w tym, co robią, a narzędzia nadal dojrzewają, jak to jest możliwe, że incydenty nadal rosną?

AI zmienił sposób, w jaki oprogramowanie jest wysyłane

Jedną z największych zmian, które zachodzą w tym samym czasie, co wzrost awarii, jest rozprzestrzenianie się rozwoju oprogramowania wspomaganego przez AI. Narzędzia do kodowania AI nie są już eksperymentalne. Są one wbudowane w codzienne przepływy pracy, zarówno w IDE, jak i w CLI, co ułatwia generowanie kodu z AI.

W całej branży liczba żądań ściągnięcia na developera wzrosła znacznie, a niektóre analizy pokazują, że jest to około 20% skok roczny, gdy AI przyspiesza wydajność. W tym samym czasie incydenty na żądanie ściągnięcia wzrosły jeszcze szybciej, zwiększając się o ponad 23%.

Ta korelacja nie jest dowodem przyczynowości, ale trudno ją zignorować. AI nie tylko przyspiesza pisanie kodu, ale zmienia kształt ryzyka. Jak dotąd, większość zespołów spotkała się z stałym strumieniem błędów w kodzie wspomaganym przez AI, o których doświadczeni inżynierowie są przekonani, że byliby w stanie ich uniknąć.

Nie są to dramatyczne błędy składniowe ani oczywiście złe zmiany. Są to subtelne błędy logiczne, nieprawidłowe konfiguracje, brakujące barier ochronne i awarie przypadków granicznych, które wyglądają rozsądnie na pierwszy rzut oka.

Kod wygenerowany przez AI często kompiluje się czysto, przechodzi podstawowe testy i wygląda prawdopodobnie poprawnie. Problem nie polega na tym, że AI wymyśla nowe rodzaje błędów. Polega on na tym, że wytwarza znane błędy częściej i w skali, która przytłacza istniejące procesy przeglądu i QA.

Co pokazują dane, gdy AI pisze więcej kodu

Niedawno przeanalizowaliśmy setki otwartych żądań ściągnięcia, aby pomóc postawić liczby za tą intuicją w naszym Raporcie o stanie AI vs. generacji kodu ludzkiego. Gdy zmiany współautorskie przez AI porównano z żądaniem ściągnięcia tylko ludzkim i zunifikowano je pod względem rozmiaru, żądania ściągnięcia wspomagane przez AI zawierały około 1,7 razy więcej problemów ogółem.

Co gorsza, zawierały one również 1,4-1,7 razy więcej krytycznych i głównych problemów. Problemy z logiką i poprawnością, w tym błędna kontrola przepływu, nieprawidłowe użycie zależności i błędy konfiguracyjne, były o 75% bardziej powszechne. Luki w obsłudze błędów, takie jak brakujące sprawdzenia null, niekompletne ścieżki wyjątków i brak barier ochronnych, pojawiały się prawie dwa razy częściej.

Problemy z bezpieczeństwem zostały również nasilone, a niektóre kategorie występowały z częstotliwością do 2,7 razy wyższą, szczególnie wokół obsługi poświadczeń i niebezpiecznych odniesień do obiektów. Problemy z poprawnością współbieżności i zależności również zwiększyły się o około 2 razy.

Ludzie popełniają te same błędy, ale gdy AI jest zaangażowany, te wady występują częściej, na większym kodzie i z prędkością, która wyprzedza tradycyjny przegląd kodu. Są to exactly te rodzaje wad, które mogą przeszkodzić szybkiemu przeglądowi i później objawić się jako incydenty bezpieczeństwa lub awarie w środowiskach produkcyjnych.

Co decyduje o tym, czy 2026 będzie wyglądał inaczej

Z punktu widzenia bezpieczeństwa ten trend jest trudny do zignorowania. Błędy logiczne, niebezpieczne domyślne ustawienia i błędy konfiguracyjne zwiększają powierzchnię ataku, nawet gdy żadna pojedyncza podatność nie wygląda katastrofalnie w izolacji. Luki w obsłudze błędów i błędy zależności zwiększają prawdopodobieństwo, że awarie będą się rozprzestrzeniać, a nie degradować w sposób bezpieczny.

Silna izolacja, wykonywanie z najniższymi przywilejami, krótkotrwałe poświadczenia i szyfrowanie mogą ograniczyć promień rażenia, jeśli coś pójdzie nie tak, ale nie mogą rekompensować wad wprowadzonych wcześniej w cyklu życia rozwoju. Bezpieczeństwo i niezawodność nie są już tylko kwestią infrastruktury i są bezpośrednimi konsekwencjami, w jaki sposób oprogramowanie jest budowane, przeglądane i testowane.

Internet będzie nadal ulegał awariom w 2026 roku, jeśli ten dysbalans pozostanie. To nie jest argument przeciwko AI, ponieważ AI jest już tutaj i nie zniknie. Zespoły, które najlepiej sobie poradzą, to nie te, które unikają AI, ale te, które dostosują swoje zabezpieczenia do niego.

Oznacza to, że należy:

  • Przydzielić odpowiednie zasoby do przeglądu i QA dla wyższej wydajności, a nie niższej.
  • Przenieść walidację na wcześniejszy etap pętli rozwojowej.
  • Zwiększyć sygnał w żądaniach ściągnięcia, aby recenzenci koncentrowali się na tym, co się liczy.
  • Zachować AI-wspomagany kod jako zasługujący na głębszą kontrolę, a nie lżejszy nadzór.

Internet nie musi nadal ulegać awariom. AI nie jest korzeniem problemu, nieprzeglądany kod AI jest. Jeśli AI ma pisać coraz większy udział oprogramowania produkcyjnego, coś równie rygorystycznego musi je przeglądać przed wysłaniem.

Ta zmiana jest dokładnie tym, dlaczego przeglądy kodu AI stają się podstawową infrastrukturą, a nie opcjonalnym narzędziem. Platformy takie jak CodeRabbit wbudowują przeglądy AI z uwzględnieniem kontekstu bezpośrednio w przepływ pracy Git, pomagając zespołom wyłapać błędy logiczne, luki w zabezpieczeniach i przypadki graniczne, zanim staną się incydentami.

Ponieważ jeśli generowanie kodu się skaluje, przegląd musi się skalować z nim.

W przeciwnym razie 2026 będzie wyglądał dokładnie jak 2025 – tylko szybciej.

David Loker jest wiceprezesem ds. AI w CodeRabbit, gdzie kieruje tworzeniem systemów AI agentic, które przekształcają przeglądy kodu i przepływy pracy programistów. Jako przedsiębiorca i nagradzany badacz, budował duże systemy maszynowego uczenia się i AI od 2007 roku i opublikował ponad tuzin prac na wiodących konferencjach, w tym NeurIPS, ICML i AAAI, i był wczesnym pionierem w generatywnym AI.