Connect with us

Myslitelé

Co se skutečně děje během útoku s využitím AI?

mm
A modern cybersecurity SOC control room at night, showing analysts at glowing consoles overlooking a massive curved screen that visualizes a complex, adaptive red digital attack rapidly navigating a blue network grid.

Po mnoho let hovořila odvětví kybernetické bezpečnosti o útocích s využitím AI v budoucím čase. Představovali jsme si vědomé super-hackerky, kteří rozebírají firewally s mimozemskou logikou. Realita, jak jsme ji objevili v našich laboratořích v Simbian, je daleko méně kinetická, ale daleko nebezpečnější.

Hrozba spočívá v tom, že AI není nadlidsky chytrá. Je to to, že AI dělá odbornou úroveň vytrvalosti škálovatelnou, okamžitou a nekonečně variabilní. Přemění “okrajové zlepšení” skriptu na lavinu entropie, kterou žádný lidský tým SOC nemůže zvládnout.

Zde je to, co se skutečně děje, když stroj vezme klávesnici.

Fáze 1: Průzkum – Éra kontextu

Ve starém světě byl průzkum “spray and pray”. Útočníci kupovali seznamy e-mailů a rozesílali generické šablony, doufající v 0,1% kliknutí.

Při útoku s využitím AI je průzkum “spear and clone”. Generativní agenti mohou nyní ingestovat digitální stopu cíle – příspěvky na LinkedIn, nedávné tweety, zmínky v novinách a dokonce i veřejné commity – aby vytvořili psychologický profil v sekundách. Nevytvářejí pouze phishingové e-maily; vytvářejí kontext.

Agent AI neodesílá generický odkaz “Reset Password”. Vidí, že jste právě commitovali kód do konkrétního repozitáře GitHub v 2:00 ráno. Odesílá vám oznámení Slack od “Senior Dev”, který se stěžuje na merge konflikt v tomto konkrétním repozitáři, s odkazem na “opravu”. Nouzovost je vyrobena, ale kontext je skutečný.

Výzkumné poznatky: V našich simulacích jsme modelovali tento posun úpravou proměnných chování uživatelů na základě kvality kontextu. Když jsme přešli z generického phishingu na kontextově-aware lákadla (odkazující se na konkrétní interní názvy projektů), simulované kliknutí sazby vyskočily z <2% na více než 20%. V podniku s 5 000 lidmi je to rozdíl mezi otravnou věcí a povodní.

AI Cybersecurity Research Graph

Fáze 2: Provedení – Polymorfní noční můra

To je místo, kde se obrana skutečně rozpadá. Tradičně, pokud útočník napsal škodlivý skript (například variantu Mimikatz), dodavatelé bezpečnostních řešení by ho našli, hashovali a zablokovali. “Signatura” byla štítem.

Generativní AI ničí koncept statické signatury. Útočník s využitím AI nepoužívá statický nástroj. Používá agenta, který píše nástroj na cíli. Pokud agent detekuje senzor EDR (Endpoint Detection and Response), jednoduše požádá svou LLM backend: “Přečtěte logiku dumpování přihlašovacích údajů, aby se vyhnuli těmto konkrétním API hookům. Přejmenujte všechny proměnné. Změňte tok řízení.”

Účel kódu zůstává identický. Syntaxe se zcela změní. Pro pravidlový systém obrany to vypadá jako zcela nový, dosud neviděný program.

Výzkumné poznatky: Označujeme tyto jako “Mutant Attacky.” V našem výzkumu jsme vzali standardní kill chain dumpování přihlašovacích údajů a použili LLM k vygenerování 500 funkčních variací. Zatímco standardní detekční nástroje chytili 95% původních skriptů, detekční sazby klesly na ~25% pro mutované verze. Stroj se nestal chytřejším; stal se pouze hlučnější. A v bezpečnosti je hluk nejlepším kamufláží.

Fáze 3: Laterální pohyb – Rychlost abdukce

Jakmile je uvnitř, rychlost lidské reakce se stává irelevantní. Lidský útočník se pohybuje opatrně, kontroluje protokoly, píše příkazy a zastavuje se, aby přemýšlel. Může se přesunout na nový server během hodin.

Agent AI se přesune za milisekund.

Ale rychlost není jediným faktorem; je to Abdukční usuzování, nebo inference k nejlepšímu vysvětlení. AI je překvapivě dobrá v “odhadování” struktury sítě na základě fragmentů. Pokud vidí server pojmenovaný US-WEST-SQL-01, odhaduje existenci US-EAST-SQL-01 a US-WEST-BAK-01. Testuje tyto hypotézy okamžitě napříč tisíci interních IP adres.
Nemusí být dokonalý. Musí být pouze rychlý. Zatímco analytik SOC ještě triážuje počáteční phishingové upozornění, AI již namapoval kontrolér domény, identifikoval záložní servery a extrahoval korunní klenoty organizace.

Fáze 4: Dopad – Entropická bomba

Ultimální cíl útoku s využitím AI není vždy stealth. Někdy je to chaos. Vstupujeme do éry High-Entropy Attacků. Agent AI může generovat 10 000 realistických upozornění současně – neúspěšné přihlášení, skenování portů, falešné spouštění malwaru.

To je “Entropická bomba”. Zaplňuje SOC takovým množstvím signálu, že analytici trpí kognitivní přetížením. Bojují proti falešným cílům, zatímco skutečný útok se děje tiše na pozadí. Výzva pro obránce se mění z “najít jehlu v kupce sena” na “najít jehlu v kupce jehel”.

Bojovat ohněm s ohněm

Lekce z našeho výzkumu je ostrá: Nemůžete bojovat se strojem s frontou lístků.

Pokud útočník může iterovat svůj kód v sekundách a vaše obrana vyžaduje, aby člověk napsal pravidlo detekce v hodinách, jste již prohráli. Asymetrie je matematická. Jediný způsob, jak přežít útok s využitím AI, je mít AI obránce, který funguje na stejné rychlosti – usuzuje, ověřuje a blokuje rychleji, než útočník může mutovat.

Útok se vyvinul. Obrana musí nyní udělat totéž.

32 5 dní
Od zranitelnosti k explozi

12% 54%
Kliknutí na AI-poháněné phishingové e-maily

Dny 1 hodina
Od počáteční kompromitace k extrahování pro top 20%

Dny 48 minut
Medián breakout času (laterální pohyb)

Nová realita AI-ozbrojených bezpečnostních útoků

Alankrit Chona je Chief Technology Officer a spoluzakladatel Simbian, který dohlíží na inženýrství pro platformu Simbian. Hrál průkopnické role při budování škálovatelných, robustních systémů v raných fázích společností, jako je Spotnana a Afterpay, stejně jako na velké škále na Twitteru.