Myslitelé
Stínový AI džungle: Proč schválení platformy není totéž jako zajištění bezpečnosti toho, co na ní běží

Adopce podnikového AI je daleko od bezproblémové. Obavy o kontrolu dat, soulad s předpisy a bezpečnost doprovázejí každou fázi cesty. Ale když organizace rozšiřují své operace na hlavních platformách, jako jsou Microsoft, Salesforce a ServiceNow, roste pocit, že nejobtížnější otázky governance jsou alespoň částečně řešeny. Podnikové dohody jsou na místě. Bezpečnostní kontroly byly dokončeny. Platformy jsou schváleny.
To, co tato důvěra často přehlíží, je však zcela jiná otázka: ne zda je platforma zabezpečena, ale co a kdo buduje.
Přechod různých odvětví je tiše revolucí, kdy netechničtí zaměstnanci používají podnikové platformy AI k vytváření autonomních agentů, automatizovaných pracovních postupů a aplikací propojených s daty, často během několika minut, bez nutnosti psát jediný řádek kódu. Bez tradičních vývojových časových limitů a omezení jsou tito stavitelé požehnáním pro organizační efektivitu. Ale tyto nástroje nejsou nikdy přezkoumány bezpečnostním týmem. V mnoha případech bezpečnostní týmy ani nevědí, že existují.
Tyto nástroje, zda klasifikovány jako aplikace, agenti nebo automatizace, jsou součástí rostoucího problému známého jako Stínový AI, a představují jednu z nejvýznamnějších změn v podnikovém riziku za posledních deset let, a to z velmi jednoduchého důvodu: hrozby se nyní přesunuly dovnitř.
Původní problém Stínového IT byl relativně přímočarý: zaměstnanci používali neautorizované nástroje z vnějšku organizace, a úkolem bezpečnostního týmu bylo je najít a zablokovat. Stínový AI je však zcela jiná výzva. Nástroje jsou uvnitř platforem, které jste schválili. Lidé, kteří je budují, jsou vaši vlastní zaměstnanci. Přístup, který používají, je legální. A nic z toho neprochází bezpečnostními procesy navržené k odhalení problémů předtím, než se dostanou do produkce.
To, co toto zvláště obtížné řešit, je rozsah. Většina bezpečnostních lídrů výrazně podceňuje, kolik je budováno uvnitř jejich vlastních prostředí. Nedávný výzkum provedený u více než 200 podnikových CISO a bezpečnostních lídrů ukázal, že průměrný podnikový bezpečnostní tým může zodpovědět pouze 44% AI agentů, automatizací a aplikací, které jejich obchodní uživatelé vytvořili. To není mezera. Je to slepá skvrna, která pokrývá většinu toho, co běží.
Důvod je přímočarý: obchodní uživatelé nyní převyšují profesionální vývojáře až o 10 ku 1 v některých organizacích. Stále budují napříč všemi odděleními, na platformách, které byly navrženy tak, aby usnadňovaly budování, a poté jsou povzbuzeni C-suite k budování. Bezpečnostní týmy jsou orientovány kolem vývojářských kanálů a repozitářů kódu. Nikdy nebyly navrženy k monitorování tohoto.
Nejčastější mýlka je víra, že schválení platformy řeší bezpečnostní problém. Není tomu tak, pouze ho přesouvá. Když podnik podepíše dohodu s Microsoftem, Salesforcem nebo UiPath, poskytovatel platformy zabezpečuje svou infrastrukturu. Co zaměstnanci budují na jejím základě a jak ji konfigurují, je však plnou odpovědností podniku.
Problém spočívá v tom, že nástroje, které vytvářejí obchodní uživatelé, se tradičním bezpečnostním systémům nejeví jako software. Není k dispozici žádný kód ke skenování, žádný repozitář k monitorování, žádný kanál k prohlížení. AI agent postavený HR manažerem prostřednictvím série nabídek a textových podnětů je, z pohledu většiny bezpečnostních nástrojů, neviditelný.
A přesto jsou tyto nástroje daleko od triviálních. Výzkum ukázal, že více než polovina CISO potvrdila, že aplikace postavené obchodními uživateli nyní podporují obchodní kritické procesy a mají přístup k citlivým firemním údajům. Sázky jsou reálné a dohled belum dohnal.
Od nuly k katastrofě
Případy použití jsou tak rozmanité, jako jsou četné a pocházejí prakticky z každého oddělení, dokonce i z těch, na které by bezpečnostní tým nikdy nepomyslel.
Například marketingový koordinátor buduje zákaznickou AI agenturu na plně schválené platformě, aby odpovídal na produktové otázky. Za několik minut je aplikace spuštěna, ale jako někdo bez bezpečnostního školení, dvě malé konfigurační chyby zůstanou nezpozorované a ponechají agentovi přímý přístup k celé firemní databázi a žádné hranice pro to, co může načíst. V produkci uživatel požádá agenta, aby načetal zaměstnanecké záznamy. Udělá to. Protože agent také má e-mailovou schopnost, uživatel mu řekne, aby data poslal na osobní adresu. Celá sekvence trvá méně než šedesát sekund. Žádný neautorizovaný přístup. Žádné porušení platformy. Žádné bezpečnostní upozornění.
Toto není sofistikovaný útok. Je to předvídatelný výsledek dobře míněného zaměstnance, který buduje něco, co plně nerozumí, na platformě, která usnadňuje budování a činí governance volitelnou.
Mezera v governance, kterou nikdo nezahrnul do ceny
Pro většinu organizací zůstává problém Stínového AI abstraktní, dokud se něco nepokazí. Ale podnikové riziko jde hlouběji než reakce na porušení.
Když obchodní postavený agent prosákne citlivé údaje, otázka, kterou bude představenstvo klást, nebude „jak se stalo?“ Ale „jak nikdo nevěděl, že nástroj běží?“ Nerozlišují mezi porušením způsobeným externím útočníkem a tím, které způsobila nesprávně nakonfigurovaná interní nástroj. Pokud byly zveřejněny osobní údaje a organizace postrádala přehled o tom, co běží, absence dohledu je sama o sobě závadou. „Zaměstnanec postavil to na schválené platformě“ není obrana, je to popis mezery.
Nutnost je reálná, ale záměr a provedení nejsou totéž, a pro většinu podniků mezera mezi nimi zůstává široce otevřená.
Odpověď není omezit, kdo může budovat. Zablokování občanského rozvoje by obětovalo skutečné zisky z produktivity a v praxi by to nefungovalo. Zaměstnanci by našli cesty, jak obejít. Odpověď spočívá v tom, aby se to, co se buduje, dostalo do zorného úhlu, a aby se to řídilo v okamžiku, kdy riziko skutečně vyvstává: běh.
To znamená pochopit nejen to, které agenty existují, ale také jak se chovají, jaké údaje přístup, které systémy se dotýkají, a zda jejich akce zůstávají v mezích, které jejich stavitelé zamýšleli. To znamená stanovení ochranných zábran, které fungují na úrovni organizace, ne pouze v okamžiku konfigurace. A to znamená dostat se do místa, kde bezpečnostní týmy mohou odpovědět na nejzákladnější otázky o každém agentovi ve svém prostředí: kdo jej postavil, co má přístup k, a zda se chová způsobem, jakým byl navržen.
Většina podniků nemůže odpovědět na tyto otázky dnes. Organizace, které se tam dostanou první, budou ty, které mohou škálovat adopci AI s důvěrou, protože budou vědět, co skutečně běží.












