Tankeledere
Internettet vil fortsætte med at gå i stykker i 2026, og AI er en del af årsagen

Hvis 2025 føltes som året, hvor internettet hele tiden gik i stykker, ser 2026 ud til at blive mere af samme skuffel. Udfald, hændelser og produktionsfejl er ikke længere sjældne begivenheder, der overrasker ingeniørteam. De er blevet en stabil baggrundsbetingelse for moderne softwareudvikling.
Data fra udfalds-trackere som IsDown.app viser, at hændelser stiger år for år siden 2022, uden nogen betydelig omvending, og uafhængige undersøgelser bekræfter dette. En global meningsmåling af mere end 1.000 CIO’er, CISO’er og netværksingeniører fandt, at 84% af organisationer rapporterede stigende udfald, med mere end halvdelen, der så stigninger på 10-24% over blot to år.
ThousandEyes observerede lignende volatilitet, med skarpe måned-til-måned-sving, der peger på vedvarende opadgående tryk snarere end isolerede fejl. Den ubehagelige konklusion er, at de systemer, vi afhænger af hver dag, bliver mere skrøbelige, ikke mere robuste, på trods af års investeringer i cloud-infrastruktur, overvågning og automatisering.
Når store platforme går ned, er skadeområdet øjeblikkeligt. Betalinger mislykkes, forbrugerapps fryser, interne værktøjer standsner, og hele forsyningskæder føler virkningen med økonomisk tabsestimeringer, der rutinemæssigt når op i milliarder. For eksempel Amazon, en leder i e-handel, tilskriver en stigning i hændelser – herunder en næsten seks timer lang udfald af deres website og shopping-app denne måned – til ændringer, der er hjulpet af Generative AI. Dette har ført til, at virksomheden har planlagt ingeniørmøder for en dybdeindsigt i den seneste stigning i udfald.
Efter hver stor udfald, gentager de samme samtaler sig selv omkring redundant, multi-cloud-strategier og vendor-koncentrationsrisiko. Disse diskussioner er vigtige, men de mangler det større billede.
Hvis infrastrukturudbydere ikke bliver dårligere til, hvad de gør, og værktøjerne fortsætter med at modne, hvordan kan hændelserne så stadig stige?
AI ændrede, hvordan software udvikles
En af de største ændringer, der sker på samme tid som denne stigning i udfald, er spredningen af AI-assisteret softwareudvikling. AI-kodningsværktøjer er ikke længere eksperimentelle. De er integreret i daglige arbejdsprocesser, enten i IDE’er eller CLI, og gør det lettere end nogensinde før at generere kode med AI.
På tværs af industrien er pull-requests per udvikler materialet øget, med nogle analyser, der viser en 20% årlig stigning, da AI accelererer output. På samme tid er hændelser per pull-request steget endnu hurtigere, øget med mere end 23%.
Denne korrelation er ikke bevis for årsagssammenhæng, men det er svært at ignorere. AI gør det ikke kun hurtigere at skrive kode, det ændrer også risikoen. Ved denne tid er de fleste hold stødt på en konstant strøm af fejl i AI-assisteret kode, som erfarne ingeniører er sikre på, de ikke ville have introduceret på egen hånd.
Disse fejl er ikke dramatiske syntaksfejl eller åbenlyst forkerte ændringer. De er subtile logikfejl, misconfigurations, manglende sikkerhedsforanstaltninger og edge-case-fejl, der ser rimelige ud på første hånd.
AI-genereret kode compiler ofte renligt, passerer grundlæggende tests og læser plausibelt korrekt. Problemet er ikke, at AI opfinder nye fejltyper. Det er, at det producerer kendte fejl mere hyppigt og i en skala, der overvælder eksisterende gennemgangs- og QA-processer.
Hvad data viser, når AI skriver mere kode
Vi har nyligt analyseret hundredvis af open-source pull-requests for at hjælpe med at sætte tal bag denne intuition i vores State of AI vs. Human Code Generation Report. Når ændringer, co-forfattet af AI, blev sammenlignet med human-only pull-requests og normaliseret for størrelse, indeholdt AI-assisterede PR’er omkring 1,7 gange flere problemer i alt.
Endnu mere bekymrende er, at de også viste 1,4-1,7 gange flere kritiske og større problemer. Logik- og korrekthedsproblemer, herunder fejl i kontrollen, forkert afhængighedsbrug og konfigurationsfejl, var omkring 75% mere almindelige. Fejlhåndteringsgaps, såsom manglende null-checks, ufuldstændige undtagelsesveje og manglende sikkerhedsforanstaltninger, optrådte næsten dobbelt så ofte.
Sikkerhedsproblemer blev også forstærket, med visse kategorier, der optrådte med en hyppighed på op til 2,7 gange højere, især omkring kodehåndtering og usikre objektreferencer. Samtidig og afhængighedskorrekthedsproblemer øgede med omkring 2 gange.
Mennesker begår disse samme fejl, men når AI er involveret, optræder disse fejl mere hyppigt, på tværs af en større kodebase, og i en hastighed, der overgår traditionel kodegennemgang. Disse er præcis de typer af fejl, der er sandsynlige for at glide forbi en hurtig gennemgang og senere manifestere sig som sikkerhedsincidenser eller udfald i produktionsmiljøer.
Hvad afgør, om 2026 ser anderledes ud
Fra et sikkerhedsperspektiv er denne trend svær at ignorere. Logikfejl, usikre standarder og konfigurationsfejl udvider angrebsfladen, selv når ingen enkelt sårbarhed ser katastrofal ud i isolation. Fejlhåndteringsgaps og afhængighedsfejl øger sandsynligheden for, at fejl kaskader i stedet for at degradere sikkert.
Stærk isolation, mindst-privilegeret eksekvering, kortvarige legitimationsoplysninger og kryptering kan begrænse skadeområdet, hvis noget går galt, men de kan ikke kompensere for fejl, der er introduceret tidligere i udviklingslivscyklussen. Sikkerhed og pålidelighed er ikke længere kun infrastrukturproblemer og er direkte konsekvenser af, hvordan software bygges, gennemgås og testes.
Internettet vil fortsætte med at gå i stykker i 2026, hvis denne ubalance består. Det er ikke et argument imod AI, da AI allerede er her og ikke er på vej væk. De hold, der klarer sig bedst, er ikke dem, der undgår AI, men dem, der tilpasser deres sikkerhedsforanstaltninger til at matche det.
Det betyder, at man ressourcerer gennemgangs- og QA-holdene på en måde, der svarer til den øgede output, flytter test og validering tidligere i udviklingsløkken, er eksplicit om, hvilke AI-genererede problemer fortjener dybere gennemgang, og behandler AI-assisteret kode som en højere-variance-indgang snarere end en pålidelig output som standard.
Lektien er enkel: man kan ikke automatisere sig ud af ansvar. Når AI skriver mere kode, har holdene brug for tid, værktøjer og personale til at gennemgå mere kode, ikke mindre. Den næste fase af AI-innovation vil ikke blive defineret af, hvor hurtigt kode genereres, men af, hvor sikker det kan leveres.
Gennemgang er nu flaskenhalen
AI øgede dramatisk kodningskapaciteten. Det gjorde ikke automatisk gennemgangskapaciteten større. Den åbning skaber risiko. Den næste fase af AI-adopteringsprocessen vil ikke blive defineret af, hvor hurtigt kode genereres. Det vil blive defineret af, hvor sikker holdene kan levere det.
Det betyder:
- Ressourcer gennemgang og QA til højere output, ikke lavere.
- Flyt validering tidligere i udviklingsløkken.
- Øg signal i pull-requests, så gennemgangspersonale kan fokusere på, hvad der er vigtigt.
- Behandle AI-assisteret kode som fortjening dybere gennemgang, ikke lettere tilsyn.
Internettet behøver ikke at fortsætte med at gå i stykker. AI er ikke roden til problemet, ugennemgået AI-genereret kode er. Hvis AI skal skrive en større andel af produktionssoftware, skal noget lige så rigorøst gennemgå det, før det leveres.
Denne ændring er præcis, hvorfor AI-kodegennemgang bliver grundlæggende infrastruktur, ikke valgfrit værktøj. Platforme som CodeRabbit integrerer kontekst-bevidste AI-gennemgang direkte i Git-arbejdsgangen, hvilket hjælper hold med at fange logikfejl, sikkerhedsfejl og edge-cases, før de udvikler sig til hændelser.
Fordi hvis kodegenerering skal øge, skal gennemgang også øge med det.
Ellers vil 2026 se ud som 2025 – blot hurtigere.












