Spojte se s námi

rozhovory

Jacob Ideskog, technický ředitel společnosti Cury – Série rozhovorů

mm

Jakub Ideskog je specialista na identity a technický ředitel ve společnosti Curity. Většinu svého času tráví prací s bezpečnostními řešeními v oblasti API a webu. Pracoval na návrhu a implementaci řešení OAuth a OpenID Connect pro velké podniky i malé startupy.

Curity je moderní platforma pro správu identit a přístupu (IAM) postavená na Curity Identity Serveru, což je řešení založené na standardech, které je navrženo pro zabezpečení autentizace a autorizace aplikací, API a digitálních služeb ve velkém měřítku. Podporuje protokoly jako OAuth 2.0 a OpenID Connect pro centralizaci přihlašovacích procesů, vynucování detailních přístupových politik a vydávání bezpečných tokenů pro lidské uživatele i klienty, včetně API a služeb. Platforma je navržena pro flexibilitu a škálovatelnost, což organizacím umožňuje nasazení v cloudovém, hybridním nebo on-premise prostředí, integraci se stávajícími systémy a poskytování bezpečných a bezproblémových uživatelských zkušeností bez spoléhání se na zakázkovou bezpečnostní infrastrukturu.

Velkou část své kariéry jste strávil budováním systémů pro zabezpečení identity a API, od spoluzaložení Curity až po její vedení jako CTO, a to až po vzestup cloudu a nyní i umělé inteligence. Jak tato cesta formovala váš názor, že agenti umělé inteligence by měli být považováni za prvotřídní digitální identity, a ne jen za další kus softwaru?

V každé technologické oblasti, ve které jsem pracoval, se stále znovu objevuje jeden problém. Ať už se jedná o cloud computing nebo nyní umělou inteligenci, pokud software jedná jménem osoby nebo jiného systému, máte problém s identitou.

S masovým přijetím agentní umělé inteligence se tento problém ještě zhoršuje. Jejich chování již není striktně skriptováno a fungují s úrovní autonomie, jakou podniky dosud neviděly. Agenti umělé inteligence činí rozhodnutí, volají API a řetězí akce napříč systémy – často bez přímého lidského dohledu. Toto chování vytváří problémy s identitou a přístupem, které se zásadně liší od tradičního softwaru.

Jediný způsob, jak tento problém správně řešit, je zacházet s agenty umělé inteligence jako s digitálními identitami první třídy. Pokud s nimi organizace zacházejí jen jako s dalším procesem nebo servisním účtem, velmi rychle ztratí přehled a kontrolu – a to je recept na bezpečnostní krizi.“

Mnoho podniků je nadšeno z agentní umělé inteligence, ale stále uvízlo v experimentování. Z toho, co vidíte v reálných nasazeních, jaké jsou nejčastější mezery v identitě a správě, které brání organizacím v bezpečném škálování agentů?

Většina experimentů probíhá v izolovaných sandboxech, které ignorují dění ve velkém měřítku. Během raných pilotních projektů týmy často poskytují agentům široké API klíče, sdílené přihlašovací údaje nebo plošná cloudová oprávnění, jen aby se věci rozjely.

Tento přístup selhává v okamžiku, kdy jsou agenti nasazeni za hranice pilotních projektů. Je to proto, že bezpečnostní týmy nevidí, k jakým datům agent přistupoval, jaké akce provedl, ani zda překročil či překročil svůj zamýšlený rozsah, ať už náhodou nebo úmyslně. Tato slepá místa znemožňují bezpečné řízení agentů, a proto se mnoho organizací potýká s problémy s nasazením nad rámec pilotních projektů.“

Tvrdíte, že pro agentní umělou inteligenci jsou nezbytná přísná omezení. Jak v praxi vypadá „dobrý“ design identity pro agenty s umělou inteligencí a kde firmy obvykle dělají chyby?

Dobrý návrh identity začíná principem co nejmenších privilegií a oprávnění vázaných na explicitní záměr. Každý agent umělé inteligence by měl mít svou vlastní identitu, úzce vymezená oprávnění a jasně definované vztahy důvěryhodnosti (explicitní pravidla pro to, se kterými systémy může interagovat). V zásadě by přístup měl být účelově omezený, časově omezený a snadno odvolatelný.

Firmy se v tomto ohledu mýlí tím, že znovu používají stávající servisní účty nebo předpokládají, že interní agenti jsou ve výchozím nastavení bezpeční. Tento předpoklad neobstojí proti hrozbám z reálného světa. Zlomyslní aktéři aktivně hledají přesně tato slabá místa a agenti s umělou inteligencí dramaticky zvyšují potenciální rádius útoku, když je design identity nedbalý.“

Curity dlouhodobě pracuje se standardy jako OAuth a OpenID Connect. Jak důležité jsou standardy otevřené identity pro zajištění interoperability a zabezpečení agentní umělé inteligence v komplexních podnikových prostředích?

Otevřené standardy jsou naprosto zásadní. Podniky již provozují komplexní identitní struktury zahrnující cloudové platformy, SaaS služby a interní API. Agentní umělá inteligence jen zvyšuje složitost.

Bez standardů se každý agent stává samostatnou integrací a trvalou bezpečnostní výjimkou. Se standardy, jako jsou OAuth a OpenID Connect, lze agenty ověřovat, autorizovat a auditovat stejně jako jakoukoli jinou pracovní zátěž. Toto je jediný přístup, který může usnadnit bezpečné škálování v reálných podnikových prostředích.“

Nelidské identity se stávají stále běžnějšími, od servisních účtů až po identity strojů. Co z bezpečnostního hlediska zásadně odlišuje agenty s umělou inteligencí od předchozích nelidských identit?

Klíčovým rozdílem mezi moderními agenty s umělou inteligencí a staršími nelidskými identitami (NHI) je autonomie. Tradiční servisní účet dělá přesně to, co mu jeho kód říká, a je striktně vázán na svůj úkol. Agent s umělou inteligencí interpretuje instrukce, přizpůsobuje své chování a provádí akce, které nikdy nebyly explicitně napsány – to vše zvyšuje potenciální nebezpečí, pokud neexistují vhodné ochranné prvky.

Malá chyba identity nebo přístupu se může rychle změnit v katastrofu, protože agent může jednat rychle a napříč více systémy. Z bezpečnostního hlediska to představuje velké riziko.

Jak důležité jsou auditní záznamy a protokolování založené na identitě pro řízení agentní umělé inteligence, zejména v regulovaných odvětvích?

Auditní záznamy by neměly být „příjemné mít“. Musí být zabudovány od samého začátku. V regulovaném prostředí se od organizací očekává, že odpoví na jednoduché, ale zásadní otázky: k čemu měl tento agent přístup, kdy se to stalo a kdo to autorizoval?

Protokolování založené na identitě je jediný spolehlivý způsob, jak dosáhnout této úrovně odpovědnosti. Hraje také klíčovou roli v reakci na incidenty. Bez jasného kontextu identity je téměř nemožné zjistit, zda problém vznikl kvůli špatně se chovajícímu agentovi, narušené identitě nebo jednoduše kvůli špatné výzvě.

Jaká reálná rizika podle vás vznikají, když organizace v produkčním prostředí nasazují nadměrně privilegované nebo špatně monitorované agenty umělé inteligence?

Jedním z běžných rizik je tichá agregace dat. Agent s nadměrnými oprávněními může stahovat citlivé informace z více systémů (záznamy o zákaznících, interní dokumenty, protokoly) a poté tato data zpřístupnit prostřednictvím výzev, souhrnů nebo externích integrací.

Dalším rizikem jsou agenti s administrativním přístupem, kteří provádějí velké změny rychlostí stroje a způsobují mnohem větší škody, než by kdy člověk dokázal v krátkém čase. To může zahrnovat úpravu cloudových zdrojů, deaktivaci bezpečnostních kontrol nebo spouštění automatizovaných pracovních postupů bez dohledu.

Tyto incidenty mohou být zlomyslné, ale nemusí. Agent s přílišnými privilegii nebo špatně monitorovaný agent by mohl jednoduše fungovat na základě zastaralých nebo nesprávných předpokladů, což by zesilovalo chyby napříč více systémy dříve, než si jich kdokoli všimne.

Z pohledu útočníka je však kompromitovaná identita agenta nesmírně cenná. Umožňuje laterální pohyb napříč API a službami, často s úrovní přístupu, kterou by žádný lidský uživatel nikdy nezískal. Bez silné kontroly a monitorování identity organizace často tyto selhání odhalí až poté, co dojde ke skutečné škodě.“

Jaká rozhodnutí o identitě a přístupu by měla být učiněna včas u společností přecházejících z pilotních projektů na skutečné nasazení agentů, aby se předešlo nákladným redesignům později?

Organizace by měly včas rozhodnout o tom, jak budou agentům vydávány identity, jak budou schvalována oprávnění a jak bude přístup v průběhu času kontrolován, a předem definovat hranice identity.

Zavedení kontroly identity zpětně je téměř vždy problematické. Agenti jsou často hluboko integrováni do pracovních postupů pomocí sdílených přihlašovacích údajů nebo širokých rolí, takže dodatečné zpřísnění přístupu narušuje předpoklady, na kterých systém závisí. To v konečném důsledku vede k selhání pracovních postupů a podkopává důvěru v technologii. Je mnohem levnější, nemluvě o mnohem bezpečnějším, navrhovat správné identity, rozsahy a hranice přístupu od samého začátku.

Kde se integrace identit nejčastěji stává úzkým hrdlem při zavádění agentní umělé inteligence a jaké osvědčené postupy pomáhají snižovat tření?

Správa identit se může stát úzkým hrdlem, ale pouze tehdy, když se k ní přistupuje jako k vedlejší záležitosti. Týmy se nejprve zaměřují na budování působivých schopností agentů, aby si později uvědomily, že pro skutečné zabezpečení je nutné je integrovat se systémy IAM, branami API a platformami pro protokolování.

Nejlepším přístupem je začít s jasným pochopením a správnou implementací platforem identity a poté navrhnout agenty, kteří se do nich hodí. Organizace by měly znovu využívat stávající standardy a infrastrukturu, spíše než je obcházet; ořezávání těchto prvků nevyhnutelně způsobí problémy v budoucnu. Když je identita zabudována od samého začátku, urychluje se její nasazení, místo aby se zpomalovalo.

Jakou radu byste dali vedoucím pracovníkům v oblasti bezpečnosti a inženýrství, kteří chtějí zavést agentní umělou inteligenci, ale mají obavy z řízení a rizik, při plánování svého plánu?

Zpomalte jen natolik, abyste správně položili základy. S agenty umělé inteligence je nutné zacházet jako s identitami, a proto je třeba uplatňovat stejnou správu a řízení, jakou očekáváte u lidí, a trvat na viditelnosti od samého začátku. Pokud to organizace udělá, pak se škálování agentní umělé inteligence stává cvičením v oblasti bezpečnosti, nikoli slepým a riskantním skokem víry.

Děkuji za skvělý rozhovor, čtenáři, kteří se chtějí dozvědět více, by měli navštívit Curity.

Antoine je vizionářský vůdce a zakládající partner Unite.AI, poháněný neochvějnou vášní pro utváření a prosazování budoucnosti umělé inteligence a robotiky. Je sériovým podnikatelem a věří, že umělá inteligence bude pro společnost stejně rušivá jako elektřina, a často je přistižen při blouznění o potenciálu převratných technologií a AGI.

Jako futurista, věnuje se zkoumání toho, jak tyto inovace utvářejí náš svět. Kromě toho je zakladatelem Cenné papíry.io, platforma zaměřená na investice do špičkových technologií, které nově definují budoucnost a přetvářejí celé sektory.