Liderzy opinii
Poza Ludzkim: Zabezpieczanie Agentic AI i Nie-Ludzkich Tożsamości w Świecie Napędzanym Naruszeniami

Jeśli byliście gdzieś w pobliżu przedsiębiorstwa SOC w ciągu ostatnich 18 miesięcy, widzieliście to. Alerty, które nie mapują się na osobę. Poświadczenia, które należą do “czegoś”, a nie “kogoś”. Automatyzacja, która porusza się szybciej niż Wasz plan IR może dotrzymać.
I ostatnio to nie jest tylko szum, to korzeń przyczyny największych nagłówków w naszej branży. Od incydentu cybernetycznego Victoria’s Secret, który zakłócił sprzedaż i spowodował powództwo grupowe, do kompromisów w chmurze wielodostępowej, które ujawniły wrażliwe dane wśród klientów, rosnąca liczba naruszeń pochodzi teraz z tożsamości, których nie widzimy, nie śledzimy ani nie rozumieśmy.
Wzrost agentic AI, autonomicznych systemów, które mogą działać w aplikacjach, interfejsach API i infrastrukturze, zderzył się z eksplozją nie-ludzkich tożsamości (NHI), w tym kont, botów, kluczy API i poświadczeń maszynowych. Razem stworzyły nową powierzchnię ataku, która rozszerza się szybciej niż większość organizacji może zabezpieczyć.
Co Rozumiemy przez „Agentic AI”
Agentic AI odnosi się do AI „agentów”, które mogą przyjmować cele i autonomicznie wykonywać wieloetapowe zadania, często w wielu systemach, bez nadzoru ludzkiego.
-
Mogą wywoływać interfejsy API, aktualizować bazy danych lub uruchamiać przepływy pracy.
-
Działają z prędkością maszyny – sekundy, a nie minuty.
-
Ryzyko: wstrzyknięcie promtu, zatrute dane szkoleniowe, skradzione poświadczenia.
Skala, z Jaką Mamy do Czasu
Tożsamości maszyn już teraz przewyższają liczbę ludzi w większości przedsiębiorstw, w niektórych przypadkach nawet 20:1 lub więcej. Do 2026 roku ten wskaźnik ma prawie podwoić się. Te NHI znajdują się w Waszych obciążeniach chmury, pipeline CI/CD i integracjach API, i teraz napędzają automatyzację opartą na LLM.
Wyzwanie: Większość systemów IAM została zbudowana w celu zarządzania ludźmi, a nie maszynami.
-
Konta bez wyraźnego właściciela.
-
Stałe poświadczenia, które nigdy nie wygasają.
-
Przywileje daleko wykraczające poza to, co jest potrzebne.
To nie jest hipotetyczne. Naruszenia w Uber i Cloudflare zostały wyśledzone do skompromitowanych kont maszyn – tego rodzaju, które nigdy nie otrzymują symulacji phishingowych, ale mogą odblokować krytyczną infrastrukturę.
Agentic AI: Mnożnik Ryzyka
Z jednej strony, agentic AI jest operacyjnym przełomem. Z drugiej strony, jeśli dostęp do niego zostanie naruszony, macie automatyzację działającą na rzecz przeciwnika.
Rozważcie:
-
Agent AI z prawami odczytu/zapisu do aplikacji SaaS może automatyzować kradzież danych bez wyzwolenia anomaliicznej detekcji ukierunkowanej na ludzi.
-
Jeśli ten sam agent może modyfikować role IAM lub wdrożyć zasoby chmury, macie eskalację uprawnień na autopilocie.
-
Ataki wstrzyknięcia promtu i zatrute dane szkoleniowe oznaczają, że atakujący mogą przekierować agenta AI bez kradzieży jego poświadczeń.
Widzieliśmy, jak niebezpieczne może być niezarządzane konto usługi. Teraz dajcie temu kontu możliwość podejmowania decyzji, a stawki się pomnożą.
Studia Przypadków: Forensyka Naruszeń w Erze AI + NHI
Victoria’s Secret (maj 2025)
W weekend Zielonych Świątek Victoria’s Secret zabrała swą stronę internetową w Stanach Zjednoczonych i niektóre usługi w sklepie w tym, co wydawało się incydentem w stylu oprogramowania ransomware (The Hacker News, Bitdefender). Przerwa trwała dni i przyczyniła się do szacowanego spadku o 20 milionów dolarów w przychodach w II kwartale. Późniejsze powództwo grupowe twierdzi, że detalista nie szyfrował wrażliwych danych, pominął krytyczne audyty bezpieczeństwa i zaniedbał szkolenie pracowników w zakresie cyberbezpieczeństwa (Top Class Actions), wszystkie luki, które są podobne do słabości często spotykanych w niezarządzanych nie-ludzkich tożsamościach (NHI) z przywilejami.
Naruszenie Google Salesforce (czerwiec 2025)
W czerwcu atakujący powiązani z grupą ShinyHunters (UNC6040) uzyskali dostęp do korporacyjnej instancji CRM Salesforce za pomocą technik phishingu głosowego (vishing) (ITPro). Następnie wykradli dane kontaktowe należące do małych i średnich firm – klientów. Chociaż to zaczęło się od ukierunkowanego na ludzi inżynierii społecznej, punkt zwrotny stanowiło połączone aplikacje — rodzaj tożsamości maszyny – co umożliwiło intruzom poruszanie się bokiem bez wyzwolenia analizy zachowania użytkownika.
Retail & Luxury Brand Outages (M&S, Cartier, The North Face)
Fala ataków na głównych detalistów, w tym The North Face i Cartier, ujawniła nazwy klientów, adresy e-mail i wybrane metadane kont (Sangfor, WSJ). Marks & Spencer został dotknięty szczególnie mocno, atak ransomware i łańcucha dostaw przypisany do grupy ‘Scattered Spider’ zakłócił usługi click-and-collect przez ponad 15 tygodni i szacowany jest na koszt do 300 milionów funtów. W każdym przypadku integracje z podmiotami trzecimi i połączenia API, często wspierane przez NHI, stały się cichymi współsprawcami atakujących.
Co to Jest Nie-Ludzka Tożsamość (NHI)?
NHI to poświadczenia i konta używane przez maszyny, a nie ludzi. Przykłady:
-
Konta usług dla baz danych lub aplikacji.
-
Klucze API do integracji chmury z chmurą.
-
Poświadczenia botów do skryptów automatyzacji.
Ryzyko: Nadmiernie uprzywilejowane, niedostatecznie monitorowane i często pozostawione aktywne długo po użyciu.
Dlaczego Zarządzanie Jest Zastane
Nawet dojrzałe programy IAM napotykają przeszkody tutaj:
-
Luki odkrywcze — wiele organizacji nie jest w stanie wyprodukować kompletnego inwentarza NHI.
-
Zaniedbanie cyklu życia — NHI często utrzymują się przez lata, bez regularnego przeglądu.
-
Pustki odpowiedzialności — bez właściciela ludzkiego, sprzątanie przechodzi przez szczeliny.
-
Kradzież przywilejów — uprawnienia kumulują się, gdy role się zmieniają, ale cofnięcie przywilejów jest opóźnione.
To jest ten sam problem, z którym walczymy z kontami ludzkimi przez dziesięciolecia — tylko teraz każda NHI może działać 24/7, w skali, bez wyzwolenia „ludzkich” kontroli ryzyka.
Bezstronna Książka do Gry dla Zabezpieczania NHI i Agentów AI
-
Kompleksowe Odkrywanie — mapuj każdą NHI i agenta AI, w tym przywileje, właścicieli i integracje.
-
Przypisz Właścicieli Ludzkich — uczynij kogoś odpowiedzialnym za cykl życia każdej NHI.
-
Wymuszaj Najmniejsze Przywileje — dopasuj uprawnienia do rzeczywistego użycia; usuń nadmiar.
-
Automatyzuj Higienę Poświadczeń — obracaj klucze, używaj krótkotrwałych tokenów, automatycznie wygaszaj nieaktywne konta.
-
Ciągłe Monitorowanie — wykrywaj anomalie, takie jak nieoczekiwane wywołania API lub eskalacje przywilejów.
-
Integruj Zarządzanie AI — traktuj agenci AI jak administratorów o wysokich przywilejach: rejestruj działania, wymuszaj politykę, włączaj dostęp just-in-time.
(Te kroki są zgodne z NIST CSF, CIS Control 5, oraz powstające Gartner IVIP najlepsze praktyki.)
Dlaczego To Musi Się Wydarzyć Teraz
To nie jest tylko o gonieniu za trendem AI. To o uznaniu, że granica tożsamości przesunęła się od ludzi do procesów. Atakujący wiedzą o tym. Jeśli będziemy nadal traktować tożsamości maszyn jako pomyślne, dajemy przeciwnikom punkt ślepy, których potrzebują do działania w ukryciu.
Zespoły, które pozostaną na czele, to te, które uczynią zarządzanie NHI i agentami elementem pierwszorzędnej klasy bezpieczeństwa tożsamości, z widocznością, odpowiedzialnością i dyscypliną cyklu życia na miejscu przed następnym naruszeniem, które zmusi do rozwiązania problemu.













