Myslitelé
Proč je řízená umělá inteligence další hranicí na pracovišti

Strávili jsme deset let bojem proti stínovému IT. Neautorizované SaaS aplikace. Rogue tabulky. Neautorizované účty Dropbox. Lídři IT vytvořili kolem tohoto problému celé programy compliance, a většina z nich přesto prohrála. Reco AI’s 2025 State of Shadow AI Report zjistil, že pouze 47% SaaS aplikací v rámci průměrného podniku je formálně autorizováno — a průměrná organizace nyní spravuje 490 z nich.
To byl starý problém. Nový je horší.
Problém stínové AI je jiný tentokrát
Když zaměstnanec přihlášení k neautorizované projektové nástroj, je poškození omezeno. Úkoly týmu žijí na špatném místě. Možná některé údaje prosáknou. Typ úniku dat je poměrně předvídatelný.
Umělá inteligence je jiná. Zaměstnanci nyní používají nástroje AI k psaní zákaznických komunikací, generování finančních zpráv, souhrnů důvěrných schůzek a vytváření automatizovaných pracovních postupů, často bez toho, aby to sdělili někomu. Microsoft’s 2024 Work Trend Index zjistil, že 78% uživatelů AI přináší své vlastní nástroje AI do práce. Ne proto, že se snaží být obtížní nebo zlověstní, ale protože nástroje jsou skutečně užitečné a cítí tlak na lepší výkon. Přesto jejich organizace jsou příliš pomalé na to, aby poskytly procesy, postupy a nástroje.
Výstupy zde jsou problémem. Když nástroj AI vypracuje zákaznickou smlouvu, souhrn právního hovoru nebo vygeneruje čtvrtletní zprávu představenstva, riziko není jen “nevíme, jaký nástroj použili.” Je to, že datové postupy, přesnost a rozhodování zakotvené v těchto výstupech jsou zcela neviditelné pro organizaci. Nikdo nekontroloval prompt. Nikdo neověřil výsledek. Nikdo ani neví, že se to stalo. A protože AI vypadá tak sebevědomě, většina uživatelů nebude kontrolovat zdroje a bude slepě přijímat výsledky.
KPMG’s 2025 analýza stínové AI uvádí, že 44% zaměstnanců, kteří používají AI v práci, tak učinili způsobem, který porušuje zásady a směrnice jejich společnosti. To není okrajové chování. To je téměř polovina pracovní síly.
Proč autonomní agenti dělají tuto situaci horší (a lepší)
Tady se konverzace stává zajímavou. Nemluvíme již pouze o zaměstnancích, kteří vkládají text do ChatGPT. Vstupujeme do éry agentů AI — autonomních systémů, které mohou běžet nepřetržitě, provádět vícekrokové úkoly, připojovat se k podnikovým nástrojům a činit rozhodnutí bez lidského zásahu pro každé rozhodnutí.
Deloitte’s 2025 Tech Trends report popisuje tuto změnu jako posun směrem k “silikonové pracovní síle” a uvádí, že mnoho raných implementací agentic AI selhává přesně proto, že organizace se snaží automatizovat stávající procesy navržené pro lidi, místo aby přetvořily, jak by práce měla probíhat.
Toto je rozcestí. Autonomní AI může jít dvěma směry;
Cesta jedna: více stínového IT, ale horší. Zaměstnanci spustí agenty pomocí osobních účtů, běžících na firemním IT, připojujících se k firemním nástrojům prostřednictvím osobních API klíčů, generujících výstupy, které nikdo jiný na týmu nemůže vidět, auditovat nebo reprodukovat. Agent běží denní zprávu. Zpráva je špatná. Nikdo to nezachytí po týdny, protože nikdo jiný ani nevěděl, že existuje. To není hypotetické. Stává se to právě teď v organizacích, které pohlížejí na přijetí AI jako na individuální produktivitu.
Cesta dva: řízená autonomie. Stejný agent běží stejnou denní zprávu — ale uvnitř prostředí, kde tým může vidět, co dělá, které údaje se dotýká, kdo ho nastavil a co vyprodukoval. Agent je sdílen, ne izolován. Jeho výstupy jsou viditelné. Jeho oprávnění jsou omezena. A když něco jde špatně, je tam stopa.
Rozdíl mezi těmito dvěma cestami není technologie. Je to prostředí.
Co řízená AI ve skutečnosti vypadá v praxi
Řízení je jedním z těch slov, které dělají stavitele nervózní. Obvykle to znamená “pomalu”. Více schválení. Více procesů. Více tření mezi lidmi, kteří dělají práci, a lidmi, kteří spravují rizika.
Ale řízená AI nemusí fungovat tímto způsobem. Nejlepší implementace, které jsem viděl, sdílejí několik charakteristik;
Viditelnost výchozí. Každý výstup AI — každá zpráva, každé upozornění, každý návrh — je viditelný pro tým, ne zakopán v někoho osobním chatu. To není o dohledu. Je to o sdíleném kontextu. Když agent produkuje týdenní analýzu konkurence, celý tým by měl být schopen ji vidět, zpochybnit a na ní stavět.
Omezená oprávnění, ne blanketový přístup. Agent, který monitoruje vaše chybové protokoly, nemusí mít přístup k vašemu CRM. Agent, který vypracovává sociální obsah, nemusí mít přístup k vašim finančním údajům. Princip nejnižších oprávnění není nový. Je to jen zřídka aplikován na systémy AI — a měl by být.
Auditní stopy, které skutečně existují. McKinsey’s playbook on agentic AI security zdůrazňuje, že autonomní agenti představují “řadu nových a složitých rizik a zranitelností, které vyžadují pozornost a akci hned.” Jednou z nejzákladnějších: pokud nemůžete stopovat, co agent udělal, které údaje přístup, a která rozhodnutí učinil, nemůžete ho řídit. Plný stop.
Řízení na úrovni týmu, ne jen na úrovni IT. To je část, kterou většina rámců řízení špatně chápe. Centralizují veškerou kontrolu AI v IT nebo zabezpečení, což vytváří přesně tu úzkou místa, která způsobují stínovou AI. Organizace, které to dělají správně, přesouvají kontrolu na úroveň týmu — umožňují manažerům a vedoucím týmů konfigurovat, omezoovat a monitorovat agenty, které jejich týmy používají, v rámci ochranných bariér, které IT nastavuje, ale nemusí je mikro-řídit.
Kde organizace dělají správnou věc
Společnosti, které nasazují agenty AI dobře, nejsou ty s nejsofistikovanějšími modely. Jsou to ty s nejjasnějšími provozními hranicemi.
Vidím nejlepší výsledky ve třech oblastech;
Reportování a monitorování. Agenti, kteří běží naplánované zprávy — denní přehledy, týdenní souhrny metrik, chybové protokoly — a dodávají je přímo do kanálů týmu. Hodnota zde není jen automatizace. Je to konzistentní. Zpráva běží každý ráno, zda si někdo vzpomene na stažení dat nebo ne. A protože je viditelná pro tým, chyby se chytají rychleji.
Obsah a komunikační pracovní postupy. Návrhy, ne publikování. Agenti, kteří produkují první návrhy interních aktualizací, souhrnů schůzek nebo odchozího obsahu — a poté je předkládají k lidské kontrole. Kus řízení zde záleží, protože laťka kvality je jiná, když výstup jde zákazníkovi versus internímu kanálu Slack.
Analýza a upozornění. Agenti, kteří sledují dashboardy, označují anomálie a posílají upozornění, když metriky klesají mimo očekávané rozsahy. To nahrazuje “někdo by měl sledovat” problém, který trápí každý tým, který kdy ztratil víkend kvůli nezpozorovanému problému produkce.
Co většina organizací stále dělá špatně
Největší chyba je traitement AI řízení jako politického problému místo infrastrukturního problému.
Můžete napsat tolik zásad, kolik chcete. Pokud vaši zaměstnanci nemají schválené, snadno použitelné prostředí pro nasazení AI, které skutečně funguje pro jejich denní potřeby, obejdou vaši politiku. To není problém lidí. Je to designový problém.
IDC’s analýza stínové AI činí tento bod jasně: stealth AI produktivita “udusuje podnikové přijetí AI” protože organizace jsou chyceny mezi tím, že chtějí zisky a bojí se rizik. Výsledkem je nečinnost — což je nejhorší možný výsledek, protože zajišťuje nekontrolované přijetí.
Druhá chyba je traitement řízení a rychlosti jako protikladů. Není tomu tak. Nejlepší řízená prostředí AI jsou také nejrychlejší — protože týmy nemusí trávit čas rekreací práce, která již existuje, laděním agentů, které nevidí, nebo yeniden budováním pracovních postupů, které se rozpadly, protože někdo opustil společnost a jeho osobní účet AI šel s ním.
Hranice je prostředí, ne model
Pozornost průmyslu je zaměřena na modelové schopnosti. Větší kontextová okna. Lepší uvažování. Multimodální vstupy. To všechno záleží. Ale pro většinu týmů, které se snaží dokončit práci, není úzkým místem model. Je to prostředí, ve kterém model běží.
Může tým vidět, co dělá? Může kontrolovat, co přístup? Může sdílet, co produkuje? Může důvěřovat, že pracuje s správnými údaji a správnými omezeními?
To jsou infrastrukturní otázky, ne modelové otázky. A jsou to ty, které budou oddělovat organizace, které dostanou skutečnou, udržitelnou hodnotu z AI, od těch, které přidají pouze další vrstvu stínového IT.
Hranice není budování chytrějších modelů. Je to budování prostředí, kde chytré modely mohou skutečně být důvěryhodné, aby fungovaly.












