Wywiady
Jacob Ideskog, dyrektor techniczny Curity – seria wywiadów

Jakub Ideskog Jest specjalistą ds. tożsamości i dyrektorem technicznym (CTO) w Curity. Większość czasu poświęca rozwiązaniom bezpieczeństwa w obszarze API i sieci WWW. Pracował zarówno przy projektowaniu, jak i wdrażaniu rozwiązań OAuth i OpenID Connect dla dużych przedsiębiorstw, a także małych startupów.
Ciekawość to nowoczesna platforma zarządzania tożsamością i dostępem (IAM) oparta na serwerze Curity Identity Server, opartym na standardach rozwiązaniu zaprojektowanym w celu zapewnienia bezpiecznego uwierzytelniania i autoryzacji aplikacji, interfejsów API i usług cyfrowych na dużą skalę. Obsługuje protokoły takie jak OAuth 2.0 i OpenID Connect, aby scentralizować przepływy logowania, egzekwować szczegółowe zasady dostępu oraz wydawać bezpieczne tokeny zarówno dla użytkowników, jak i klientów maszynowych, w tym interfejsów API i usług. Platforma została zaprojektowana z myślą o elastyczności i skalowalności, umożliwiając organizacjom wdrażanie w środowiskach chmurowych, hybrydowych i lokalnych, integrację z istniejącymi systemami i zapewnianie bezpiecznych, płynnych wrażeń użytkowników bez konieczności korzystania z niestandardowej infrastruktury bezpieczeństwa.
Dużą część swojej kariery poświęciłeś budowaniu systemów bezpieczeństwa tożsamości i API – od współzałożenia Curity po kierowanie nią jako CTO w okresie rozwoju chmury, a teraz sztucznej inteligencji. Jak ta podróż ukształtowała Twój pogląd, że agenci AI powinni być traktowani jako najwyższej klasy tożsamości cyfrowe, a nie po prostu kolejne oprogramowanie?
W każdej dziedzinie technologii, z którą miałem do czynienia, jeden problem wciąż powraca. Niezależnie od tego, czy chodzi o chmurę obliczeniową, czy teraz o sztuczną inteligencję, jeśli oprogramowanie działa w imieniu osoby lub innego systemu, mamy do czynienia z problemem tożsamości.
Wraz z masową adopcją sztucznej inteligencji opartej na agentach, problem ten się pogłębia. Ich zachowanie nie jest już ściśle określone i działają z niespotykanym dotąd poziomem autonomii. Agenci AI podejmują decyzje, wywołują API i działają łańcuchowo w systemach – często bez bezpośredniego nadzoru człowieka. Takie zachowanie stwarza wyzwania związane z tożsamością i dostępem, które zasadniczo różnią się od wyzwań związanych z tradycyjnym oprogramowaniem.
Traktowanie agentów AI jak cyfrowych tożsamości najwyższej klasy to jedyny sposób na właściwe rozwiązanie tego problemu. Jeśli organizacje traktują ich jak kolejne konta procesów lub usług, bardzo szybko tracą widoczność i kontrolę – a to prosta droga do kryzysu bezpieczeństwa.
Wiele przedsiębiorstw jest entuzjastycznie nastawionych na sztuczną inteligencję opartą na agentach, ale wciąż tkwi w fazie eksperymentów. Na podstawie tego, co obserwujesz w rzeczywistych wdrożeniach, jakie są najczęstsze luki w zakresie tożsamości i zarządzania, które uniemożliwiają organizacjom bezpieczne skalowanie agentów?
Większość eksperymentów odbywa się w odizolowanych środowiskach testowych, ignorując to, co dzieje się na dużą skalę. Podczas wczesnych pilotaży zespoły często przyznają agentom szerokie klucze API, współdzielone dane uwierzytelniające lub ogólne uprawnienia do chmury, aby wszystko ruszyło.
To podejście rozpada się w momencie, gdy agenci są wdrażani poza fazą pilotażową. Dzieje się tak, ponieważ zespoły bezpieczeństwa nie widzą, do jakich danych agent uzyskał dostęp, jakie działania podejmował, ani czy przekroczył zamierzony zakres, czy to przypadkowo, czy celowo. Te martwe pola uniemożliwiają bezpieczne zarządzanie agentami, dlatego wiele organizacji ma trudności z wyjściem poza fazę pilotażową.
Twierdziłeś, że ścisłe zabezpieczenia są niezbędne dla agentowej sztucznej inteligencji. Jak w praktyce wygląda „dobry” projekt tożsamości dla agentów AI i gdzie firmy zazwyczaj popełniają błędy?
Dobre projektowanie tożsamości zaczyna się od zasady minimalnych uprawnień i uprawnień powiązanych z jawną intencją. Każdy agent AI powinien mieć własną tożsamość, wąsko zdefiniowane uprawnienia i jasno zdefiniowane relacje zaufania (jasne reguły określające, z którymi systemami może wchodzić w interakcję). Zasadniczo dostęp powinien być ograniczony celowo, czasowo i łatwy do odwołania.
Firmy popełniają błąd, wykorzystując istniejące konta usług lub zakładając, że agenci wewnętrzni są domyślnie bezpieczni. To założenie nie sprawdza się w obliczu rzeczywistych zagrożeń. Złośliwi cyberprzestępcy aktywnie poszukują właśnie tych słabych punktów, a agenci AI drastycznie zwiększają potencjalny zasięg rażenia, gdy projektowanie tożsamości jest niedbałe.
Curity od dawna współpracuje ze standardami takimi jak OAuth i OpenID Connect. Jak ważne są otwarte standardy tożsamości dla zapewnienia interoperacyjności i bezpieczeństwa agentowej sztucznej inteligencji w złożonych środowiskach korporacyjnych?
Otwarte standardy są absolutnie kluczowe. Przedsiębiorstwa już korzystają ze złożonych struktur tożsamości obejmujących platformy chmurowe, usługi SaaS i wewnętrzne interfejsy API. Agentowa sztuczna inteligencja tylko zwiększa złożoność.
Bez standardów każdy agent staje się odrębną integracją i stałym wyjątkiem bezpieczeństwa. Dzięki standardom takim jak OAuth i OpenID Connect, agenci mogą być uwierzytelniani, autoryzowani i audytowani tak samo, jak każde inne obciążenie. To jedyne podejście, które może ułatwić bezpieczne skalowanie w rzeczywistych środowiskach korporacyjnych.
Tożsamości nie-ludzkie stają się coraz powszechniejsze, od kont usługowych po tożsamości maszynowe. Czym agenci AI zasadniczo różnią się od dotychczasowych tożsamości nie-ludzkich z perspektywy bezpieczeństwa?
Kluczową różnicą między współczesnymi agentami AI a starszymi tożsamościami nie-ludzkimi (NHI) jest autonomia. Tradycyjne konto usługi robi dokładnie to, co nakazuje mu kod, ściśle przypisane do swojego zadania. Agent AI interpretuje instrukcje, dostosowuje swoje zachowanie i podejmuje działania, które nigdy nie zostały jawnie zapisane – wszystko to zwiększa potencjalne zagrożenie, jeśli nie ma odpowiednich zabezpieczeń.
Drobny błąd tożsamości lub dostępu może szybko przerodzić się w katastrofę, ponieważ agent może działać szybko i w wielu systemach. Z punktu widzenia bezpieczeństwa stanowi to poważne ryzyko.
Jak ważne są ślady audytu i rejestrowanie oparte na tożsamościach dla zarządzania sztuczną inteligencją agentową, zwłaszcza w regulowanych branżach?
Ślady audytu nie powinny być jedynie „miłym dodatkiem”. Muszą być wbudowane od samego początku. W regulowanych środowiskach od organizacji oczekuje się odpowiedzi na proste, ale kluczowe pytania: do czego dany agent uzyskał dostęp, kiedy to nastąpiło i kto to autoryzował?
Rejestrowanie oparte na tożsamości to jedyny niezawodny sposób na osiągnięcie takiego poziomu odpowiedzialności. Odgrywa ono również kluczową rolę w reagowaniu na incydenty. Bez jasnego kontekstu tożsamości praktycznie niemożliwe jest stwierdzenie, czy problem wynika z nieprawidłowego działania agenta, naruszenia tożsamości, czy po prostu błędnego komunikatu.
Jakie rzeczywiste zagrożenia widzisz w sytuacji, gdy organizacje wdrażają w środowisku produkcyjnym agentów AI o nadmiernych uprawnieniach lub słabo monitorowanych?
Jednym z częstych zagrożeń jest cicha agregacja danych. Agent z nadmierną liczbą uprawnień może pobierać poufne informacje z wielu systemów (rekordów klientów, dokumentów wewnętrznych, logów), a następnie udostępniać te dane za pośrednictwem monitów, podsumowań lub integracji zewnętrznych.
Innym zagrożeniem jest to, że agenci z dostępem administracyjnym wprowadzają istotne zmiany z prędkością maszynową, powodując w krótkim czasie znacznie większe szkody niż człowiek. Może to obejmować modyfikację zasobów w chmurze, wyłączanie zabezpieczeń lub uruchamianie zautomatyzowanych przepływów pracy bez nadzoru.
Te incydenty mogą mieć charakter złośliwy, ale nie muszą. Agent z nadmierną liczbą uprawnień lub słabo monitorowany może po prostu działać w oparciu o przestarzałe lub nieprawidłowe założenia, potęgując błędy w wielu systemach, zanim ktokolwiek je zauważy.
Jednak z perspektywy atakującego, skompromitowana tożsamość agenta jest niezwykle cenna. Umożliwia ona boczne przemieszczanie się między interfejsami API i usługami, często z poziomem dostępu, którego żaden użytkownik nigdy nie uzyskałby. Bez silnej kontroli tożsamości i monitoringu organizacje często odkrywają te awarie dopiero po wyrządzeniu realnych szkód.
Jakie decyzje dotyczące tożsamości i dostępu należy podjąć na wczesnym etapie w firmach przechodzących z wdrożeń pilotażowych na wdrożenia z wykorzystaniem agentów, aby uniknąć kosztownych zmian w projektach w przyszłości?
Organizacje powinny już na wczesnym etapie decydować o tym, w jaki sposób agentom będą wydawane tożsamości, w jaki sposób będą zatwierdzane uprawnienia i w jaki sposób dostęp będzie sprawdzany w miarę upływu czasu, definiując z góry granice tożsamości.
Wprowadzanie kontroli tożsamości z mocą wsteczną jest prawie zawsze problematyczne. Agenci są często głęboko osadzeni w przepływach pracy, wykorzystując współdzielone dane uwierzytelniające lub szerokie role, więc zawężanie dostępu po fakcie podważa założenia, na których opiera się system. To ostatecznie prowadzi do awarii przepływów pracy i podważa zaufanie do technologii. Znacznie tańsze, nie wspominając o bezpieczeństwie, jest zaprojektowanie od samego początku odpowiednich tożsamości, zakresów i granic dostępu.
Gdzie integracja tożsamości najczęściej staje się wąskim gardłem podczas wdrażania sztucznej inteligencji opartej na agentach i jakie najlepsze praktyki pomagają ograniczyć tarcia?
Zarządzanie tożsamościami może stać się wąskim gardłem, ale tylko wtedy, gdy traktuje się je jako kwestię drugorzędną. Zespoły koncentrują się najpierw na budowaniu imponujących możliwości agentów, by później zdać sobie sprawę, że aby zapewnić im prawdziwe bezpieczeństwo, konieczna jest ich integracja z systemami IAM, bramami API i platformami logowania.
Najlepszym podejściem jest rozpoczęcie od jasnego zrozumienia i prawidłowego wdrożenia platform tożsamościowych, a następnie zaprojektowanie agentów tak, aby do nich pasowały. Organizacje powinny ponownie wykorzystywać istniejące standardy i infrastrukturę, zamiast je pomijać; ignorowanie tych kwestii nieuchronnie spowoduje problemy w przyszłości. Wbudowana od samego początku identyfikacja tożsamości przyspiesza wdrożenie, a nie je spowalnia.
Jakich rad udzieliłbyś liderom ds. bezpieczeństwa i inżynierii, którzy chcieliby wdrożyć sztuczną inteligencję opartą na agentach, ale obawiają się kwestii zarządzania i ryzyka, planując swoją strategię?
Zwolnij tempo na tyle, aby dobrze położyć fundamenty. Agenci AI muszą być traktowani jak tożsamości, dlatego należy stosować takie same zasady zarządzania, jakich oczekuje się od ludzi, i od samego początku kłaść nacisk na przejrzystość. Jeśli organizacja to zrobi, skalowanie agentowej AI stanie się ćwiczeniem w zakresie bezpieczeństwa, a nie ślepym i ryzykownym aktem wiary.
Dziękuję za wspaniały wywiad. Czytelnicy chcący dowiedzieć się więcej powinni odwiedzić nas Ciekawość.












