Myslitelé
AI píše kód, ale může vaše infrastruktura držet krok?

Procházíme jeden z nejpodivnějších převratů v historii softwarového inženýrství. Po desetiletí byl cílem determinismus; budování systémů, které se chovají stejným způsobem pokaždé. Nyní vrstvíme probabilistické AI agenty na tento základ, generujeme kód v ohromujícím měřítku a rychlosti. A upřímně? Velká část naší infrastruktury nebyla pro tohle postavena.
Strávil jsem roky prací na DevOps nástrojích, spoluuautorství výzkumu a pomáhání inženýrským týmům dosáhnout jejich nejvyšších výkonů. To, co vidím teď s AI-poháněným vývojem, je více než jen evoluce. To odhaluje každou trhlinu v našich stávajících pracovních postupech.
Problém je již zde
Studie GitClear z roku 2025 zjistila, že téměř 7 % commitů nyní obsahuje kód generovaný AI. Jejich dřívější analýza 153 milionů řádků změněného kódu odhalila náklady: “code churn” – kód přepsaný nebo smazaný do dvou týdnů – se zdvojnásobil do roku 2024 ve srovnání s předchozími údaji.
Důsledky pro bezpečnost jsou stejně dramatické. Nedávná analýza 80 vybraných úloh programování napříč více než 100 velkými jazykovými modely zjistila, že kód generovaný AI zavádí bezpečnostní zranitelnosti v 45 % případů. Skutečný dopad? Jedna z pěti CISO nyní hlásí vážné incidenty přímo způsobené kódem generovaným AI.
Zisky z rychlosti jsou skutečné, ale tak jsou i náklady na stabilitu.
Amplifikační efekt
Jedna věc, kterou jsem se naučil, je, že AI zesiluje vše. Pokud máte dobré postupy, AI je dělá lepší a rychlejší. Pokud jsou vaše procesy zmatené, AI zhoršuje zmatek také. To odráží vzorec, který se objevuje rok co rok v DORA zprávách o DevOps: méně proměnných vede k lepšímu výsledku. Úspěšné týmy standardizují na méně operačních systémů, méně programovacích jazyků, méně způsobů, jak dělat věci. Úmyslně snižují složitost.
AI agenti následují stejný vzorec. Dejte jim konzistentní prostředí, kde Python znamená stejnou verzi na každém vývojářově stroji, kde jsou závislosti uzamčeny a sledovány, a vynikají. Donutíte je navigovat 17 různých konfigurací, každou se subtilními rozdíly, a budete spalovat tokeny při řešení environmentálních kuriozit místo řešení skutečných problémů.
Paradox determinismu
To vytváří fascinující napětí. Po letech počítačová věda usilovala o determinismus jako o konečnou metu. Nyní běžíme probabilistické zátěže, AI modely, které doslova nemohou zaručit stejný výstup dvakrát, na systémech navržených pro předvídatelnost.
Moje odpověď? Ponechte co nejvíce zásobníku deterministické, jak je to možné. Pokud můžete udržet 80 % své infrastruktury na deterministické úrovni, vaše AI agenti mají méně proměnných, které musí zvládat. Nevynakládají kontextové okna na “Proč se tato závislost nainstalovala?” nebo “Pokusím se o tento build příkaz znovu.” Soustředí se na skutečnou práci, o kterou je žádáte.
Zamyslete se nad tím: když se agent pokusí zkompilovat něco a nativní vazby selžou, protože ImageMagick není nainstalován, je to token-drahá odbočka. Pokud vaše prostředí již obsahuje vše, co je potřeba (překladače, knihovny, celý strom závislostí až po libc), agent prostě funguje. Žádné ladění, žádné pokusy a omyly, jen pokrok.
Specifikace a validace jsou klíčové
Stává se zřejmým, že AI-poháněný vývoj nás nutí přemýšlet pečlivěji o dvou historicky podceňovaných dovednostech: specifikaci a validaci. Musíte vysvětlit, co vlastně stavíte, a musíte mít robustní způsoby, jak ověřit, zda jste to dostali.
Zaznamenal jsem něco zajímavého: lidé s pozadím produktového managementu nebo produktového inženýrství jsou často více úspěšní s AI agenty právě teď. Už jsou vycvičení myslet v termínech požadavků, kritérií úspěchu a kompromisů. Jsou pohodlně ptají se “Proč jste učinili ten výběr?” a upravují na základě uvažování.
Validace, znalost, zda věc je skutečně správná, vždy byla nejobtížnějším problémem softwarového inženýrství. QA byla zločinně podceňována po desetiletí, a přesto je to nejobtížnější část: určení, zda software řeší skutečnou potřebu uživatele. AI to nevyřeší. Pokud cokoliv, dělá to ještě kritičtějším, protože nyní ověřujete probabilistické výstupy proti deterministickým požadavkům.
Důvěřujte, ale ověřte (a kontrolujte)
Existuje názor, který začínám přijímat: měli bychom předpokládat, že kód generovaný AI je nepřátelský, dokud nebude prokázán jinak. Ne proto, že AI je zlomyslný, ale protože prostě nevíme. Nemůžeme prozkoumat každou řádku, když agenti generují tisíce řádků denně.
To znamená posunutí kontrolních bodů. Pokud nemůžeme bránit vše v době vývoje, potřebujeme silnější kontroly v době běhu. Operátoři, SRE, platformní týmy, kdokoliv, kdo je zodpovědný za produkci, potřebují lepší přehled o tom, co běží, úplné sledování závislostí a jasnou provenienci pro každý artifact.
To je místo, kde se reprodukovatelnost stává nezbytnou. Když můžete matematicky prokázat, že artifact, který jste otestovali lokálně, je identický s tím, co běží v produkci – stejné vstupy, stejné výstupy, stejné uzamykání závislostí – můžete začít dělat inteligentní rozhodnutí. Možná nemusíte znovu spustit unit testy v CI, pokud jste je již spustili lokálně a nic se nezměnilo. Možná můžete mapovat pokrytí testů na změny kódu a přeskočit irelevantní testovací sady.
Co přijde dál
Jsme na bodu inflexe. Týmy, které již měly dobré postupy, nyní vidí obrovské zisky produktivity s AI. Týmy, které již bojovaly, nyní bojují rychleji.
Infrastruktura, která pohání AI-poháněný vývoj, musí být postavena pro reprodukovatelnost od základu. Ne pouze přidána později se skenovacími nástroji a audity, ale vtlačena do toho, jak vývojáři pracují od prvního dne. Když je vaše vývojové prostředí identické napříč Mac a Linux, když každá závislost je sledována a uzamčena, když máte úplnou provenienci pro každý artifact, AI agenti se stávají násobiteli síly místo generátorů chaosu.
Tady je můj největší совет pro týmy, které se snaží uspět ve věku AI:
-
Standardizujte bezohledně. Méně proměnných koreluje s vyšším výkonem. Uzamkněte svůj technologický zásobník, vynutěte konzistentní prostředí napříč všemi platformami a eliminujte konfigurační drift, než AI zesílí. Pokud nesrovnalosti verzí Pythonu způsobují problémy nyní, budou způsobovat 10x více problémů, když AI bude generovat kód v měřítku.
-
Postavte validaci do svého pracovního postupu, ne na konci. S AI generujícím kód rychleji, než lidé mohou recenzovat, nemůžete spoléhat pouze na manuální recenzi kódu. Implementujte automatizované testy, které ověřují, zda kód nejen běží, ale zda řeší skutečný požadavek. Udělejte ze svého CI/CD pipeline svou bezpečnostní síť, se silnými bránami v době běhu pro nasazení do produkce.
-
Investujte do reprodukovatelnosti jako infrastruktury. Zacházejte s konzistencí prostředí jako s první třídou infrastrukturní starostí. Když můžete matematicky prokázat, že vaše lokální prostředí, CI prostředí a produkční prostředí jsou identické, eliminujete celou třídu “funguje na mém stroji” problémů. Tato deterministická základna je tím, co vám umožňuje bezpečně vrstvit probabilistické AI zátěže nahoře.
Otázka není, zda AI napíše většinu našeho kódu. Už to dělá pro mnoho týmů. Otázka je, zda naše infrastruktura může držet krok.








