Connect with us

Dlaczego zabezpieczenia czatbotów są niewłaściwą granicą bezpieczeństwa

Liderzy opinii

Dlaczego zabezpieczenia czatbotów są niewłaściwą granicą bezpieczeństwa

mm

Przedsiębiorstwa AI przeszły już dalece poza etap dowodu pojęcia. 23% organizacji już skaluje agenty AI gdzieś w swoich przedsiębiorstwach, a 62% co najmniej eksperymentuje z agentami AI. Nie są to projekty badawcze. Są to wdrożenia produkcyjne, osadzone w przepływach pracy, które dotykają repozytoriów kodu, danych klientów, wewnętrznych API i infrastruktury operacyjnej.

Odpowiedź branży na ten wzrost koncentrowała się głównie na tym, co dzieje się przed uruchomieniem agenta. Dostawcy i badacze włożyli energię w zabezpieczenia przed wdrożeniem: publikowanie zasad skalowania, wzmacnianie modeli podstawowych, filtrowanie danych wejściowych, zabezpieczanie łańcucha dostaw AI oraz egzekwowanie zgodności w czasie szkolenia. Główni dostawcy AI zainwestowali znaczne środki w narzędzia zabezpieczeń dla deweloperów, wzmacniając centralne założenie: jeśli model i jego dane wejściowe są kontrolowane, ryzyko w dół można ograniczyć.

Jest to rozsądny instynkt, ale coraz bardziej niekompletny.

Prompt nie jest granicą bezpieczeństwa

Zabezpieczenia, które działają na interfejsie modelu, przynoszą korzyści głównie zespołom, które kontrolują kod aplikacji, konfigurację modelu i podstawową infrastrukturę. Oferta jest o wiele mniejsza dla obrońców, którzy są odpowiedzialni za zabezpieczanie systemów AI, które nie zostały przez nich zbudowane i nie mogą być modyfikowane. To jest znacząca ślepa plama, a przeciwnicy już ją znaleźli.

Najnowszy raport wywiadu zagrożeń OpenAI dokumentuje dokładnie tę dynamikę. Aktorzy zagrożeń aktywnie nadużywają ChatGPT i podobnych narzędzi w środowiskach produkcyjnych, nie wymyślając nowych technik ataku, ale wbudowując AI w istniejące przepływy pracy, aby poruszać się szybciej. Rozpoznanie staje się bardziej efektywne. Inżynieria społeczna się skaluje. Rozwój oprogramowania szkodliwego przyspiesza. Powierzchnia ataku nie zmieniła się fundamentalnie; szybkość i objętość eksploatacji wzrosły.

Jeszcze bardziej wymowne jest to, jak atakujący odpowiedzieli, gdy te narzędzia się odeprze. OpenAI zaobserwował, że aktorzy zagrożeń szybko mutowali swoje prompty, zachowując podstawową intencję, podczas gdy cyklowali przez powierzchniowe wariacje, aby ominąć kontrolę front-end. To jest wzorzec, który praktycy bezpieczeństwa widzieli wcześniej. Statyczne obrony, czy to oparte na sygnaturach antywirusach, czy filtrowaniu danych wejściowych, nie wytrzymują przeciwko przeciwnikom, którzy iterują szybciej niż aktualizacje reguł mogą podążać.

Wyzwanie się nasila, gdy agenci zyskują autonomię. Nowoczesne agenci AI nie działają w jednej wymianie. Wykonują sekwencje wieloetapowych działań, wywołując prawidłowe narzędzia i uprawnienia w sposób, który wydaje się całkowicie normalny w izolacji. Agent używający prawidłowych poświadczeń do wyliczenia wewnętrznych API nie wyzwala alertu. Agent dostęp do czułych magazynów danych podczas tego, co wygląda jak rutynowy przepływ pracy, nie generuje żadnego natychmiastowego flagi. Każde indywidualne działanie przechodzi inspekcję; niebezpieczeństwo żyje w kombinacji i sekwencji.

Gdy zagrożenie przechodzi na dół

Zespoły bezpieczeństwa broniące wdrożeń AI dzisiaj stają w obliczu strukturalnego niezgodności. Narzędzia dostępne dla nich są w dużej mierze zbudowane do rozumienia, co model jest dopuszczony do powiedzenia. Rzeczywiste ryzyko, które muszą zarządzać, to to, co agent robi w systemach, sieciach i tożsamościach, gdy został mu udzielony dostęp i wypuszczony w środowisku produkcyjnym.

Zabezpieczenia oparte na prompcie dzielą podstawowe słabości wcześniejszych podejść do zabezpieczeń opartych na regułach. Są kruche, ponieważ zależą od przewidywania wzorców ataku z wyprzedzeniem. Są reaktywne, ponieważ wymagają, aby ktoś zaobserwował i skodyfikował zagrożenie przed tym, jak obrona może działać. I są wyprzedzane przez przeciwników, którzy przyjęli AI-ułatwioną iterację jako standardową praktykę. Obrońca polegający na filtrowaniu danych wejściowych, aby złapać aktora zagrożenia, który używa modelu językowego do generowania świeżych wariacji promota, jest w podstawowo przegranej pozycji.

Rzeczywiste narażenie pojawia się po wdrożeniu. Działania agenta rozprzestrzeniają się w środowiskach w sposób, który nie może być w pełni przewidziany przez testy przed uruchomieniem. Agenci spotykają przypadki brzegowe, interakcje z źródłami danych, które nie zostały zaprojektowane do obsługi, otrzymują dane wejściowe z systemów spoza oryginalnej architektury i podejmują decyzje, które się kumulują w czasie. Testy przed wdrożeniem to zdjęcie; produkcja to ciągły strumień. Bronienie tylko zdjęcia oznacza akceptację, że wszystko, co dzieje się w strumieniu, jest skutecznie nie monitorowane.

Przesunięcie granicy bezpieczeństwa do zachowania agenta

Budowanie odporności AI wymaga innego podejścia, a celem nie powinno być chronienie interfejsu modelu. Powinno być wykrywanie intencji atakującego przez obserwowalne konsekwencje działań agenta. To jest znacząca różnica. Intencja nie zawsze pojawia się w tym, co agent mówi lub jakie dane wejściowe otrzymuje.

Zabezpieczanie systemów AI musi wykraczać poza kontrole zgodności i oceny wytrzymałości do ciągłej oceny, jak agenci się zachowują, gdy wchodzą w interakcje z prawdziwymi narzędziami, prawdziwymi API i prawdziwymi danymi. Statyczna ocena w czasie wdrożenia jest konieczna, ale niewystarczająca. Środowisko zagrożeń, w którym agent działa, zmienia się stale. Zachowanie agenta wymaga monitorowania z tą samą ciągłością.

To jest problem, którego nie może rozwiązać twarde zabezpieczenie promota. Wykrywanie złośliwej intencji, gdy pojawia się przez sekwencje działań, wymaga modeli, które potrafią zrozumieć złożone, sekwencyjne zachowanie w środowiskach operacyjnych. Głębokie modele uczenia maszynowego, przeznaczone do analizy behawioralnej, mogą to robić w sposób, który systemy oparte na regułach i tradycyjne narzędzia SIEM nie mogą. Uczą się, co wygląda normalnie w pełnym kontekście aktywności agenta, i ujawniają odchylenia, które wskazują, że coś się zmieniło, nawet gdy żadne indywidualne działanie nie wyzwala konwencjonalnego alertu.

Podstawowa logika obowiązuje niezależnie od kontekstu wdrożenia: zabezpieczenia zakotwiczone na warstwie promota będą konsekwentnie przegrywać z atakującymi, którzy działają na warstwie działań. Obrona musi przenieść się tam, gdzie rzeczywiście żyje zagrożenie.

Co zespoły bezpieczeństwa powinny zrobić teraz

Dla liderów bezpieczeństwa, którzy próbują wyprzedzić to, kilka praktycznych przesunięć może zamknąć lukę między tym, gdzie obrony obecnie się znajdują, a gdzie muszą być.

Ocenić bezpieczeństwo AI w całym stosie aplikacji. Model podstawowy jest jedną warstwą. Równie ważne jest to, jak agenci się zachowują, gdy są wdrożone w produkcję, jakie narzędzia wywołują, jakie uprawnienia używają i jak te wybory ewoluują w czasie. Oceny bezpieczeństwa, które zatrzymują się na granicy modelu, pozostawiają powierzchnię operacyjną w dużej mierze niezbadaną.

Wymusić najmniejsze uprawnienia na poziomie agenta. Agenci AI powinni mieć dostęp tylko do narzędzi, API i danych niezbędnych do ich wyznaczonej funkcji. To ograniczenie ma znaczenie, nawet gdy dane wyjściowe agenta wydają się nieszkodliwe. Ograniczanie zakresu redukuje promień rażenia skompromitowanego agenta i tworzy jaśniejsze wzorce behawioralne, które czynią wykrywanie anomalii bardziej skutecznym.

Traktować agenty jako tożsamości, które generują telemetryczne dane. Każde działanie agenta jest punktem danych. Zespoły bezpieczeństwa powinny budować logikę wykrywania wokół łańcuchów działań zainicjowanych przez agenta, a nie tylko prompty użytkowników, które je poprzedzają. To przesunięcie zmienia monitorowanie z tego, o co użytkownik poprosił agenta, na to, co agent rzeczywiście zrobił, gdzie intencja atakującego staje się widoczna.

Zainwestuj w ciągłe monitorowanie behawioralne z modelami wykrywania, które są specjalnie zaprojektowane do tego zadania. Wykrywanie złośliwej intencji, gdy pojawia się przez sekwencje działań, wymaga specjalistycznej zdolności. Konwencjonalne narzędzia monitorowania zostały zbudowane do wzorców aktywności generowanych przez ludzi. Zachowanie agenta, z jego szybkością, objętością i wieloetapową strukturą, wymaga infrastruktury wykrywania zaprojektowanej od podstaw z tym kontekstem na uwadze.

Priorytetem jest wspólna obrona. Techniki ataku AI ewoluują szybciej, niż jakakolwiek organizacja może śledzić. Wspólna nauka, otwarta współpraca i wywiad zagrożeń społeczności są nie tylko opcjonalnymi uzupełnieniami strategii bezpieczeństwa AI; są one podstawowymi wprowadzeniami. Obrońcy, którzy pozostają na bieżąco, są tymi, którzy przyczyniają się do i czerpią z wspólnej wiedzy.

Bezpieczeństwo behawioralne naprawdę działa

Dla zespołów bezpieczeństwa, które dokonają tego przesunięcia, operacyjna zapłata jest konkretna. Kotwiczenie wykrywania w zachowaniu agenta, a nie w danych wyjściowych modelu, umożliwia wcześniejsze identyfikowanie złośliwej intencji, nawet gdy ataki są wyrafinowane, adaptacyjne lub zaszyfrowane. Atakujący, którzy pomyślnie mutują swoje prompty, aby ominąć filtry danych wejściowych, muszą działać. Te działania pozostawiają ślady. Wykrywanie behawioralne znajduje te ślady, zanim szkoda się rozprzestrzenia.

Być może najbardziej znacząco, to podejście daje organizacjom wiarygodną ścieżkę do wdrożenia agentów AI w skali bez akceptowania proporcjonalnego ryzyka bezpieczeństwa. Pytanie, które powstrzymuje wiele przedsiębiorstw, nie jest tym, czy agenci AI mogą dostarczyć wartość; jest tym, czy mogą być wdrożone z wystarczającą pewnością, że postawa bezpieczeństwa nie ulega pogorszeniu wraz ze wzrostem wdrożenia. Bezpieczeństwo behawioralne, oparte na tym, jak agenci rzeczywiście działają, a nie na tym, jakie dane wejściowe otrzymują, dostarcza tej pewności w sposób, który kontrola oparta na prompcie strukturalnie nie może.

Granica bezpieczeństwa została narysowana w niewłaściwym miejscu, a ten błąd miał sens, gdy AI było narzędziem, które czekało na dane wejściowe. Nie czeka już. Systemy agentyczne działają, łańcuchy, eskalują i kumulują się w środowiskach, których nie przewidziały żadne testy przed wdrożeniem. Organizacje, które to najwcześniej rozpoznały, będą tymi, które rzeczywiście skalują AI z pewnością. Wszyscy inni będą spędzać następne kilka lat, odkrywając, przypadkiem po przypadku, że kontrolowanie tego, co model mówi, nie było tym samym, co kontrolowanie tego, co robi.

Mayank Kumar jest założycielem inżyniera AI w DeepTempo, gdzie kieruje projektowaniem i rozwojem podstawowego modelu językowego Log Language Model (LogLM) firmy. Z silnym akademickim i badawczym tłem w generatywnym i multimodalnym AI, przywozi specjalistyczną wiedzę w zakresie budowy modeli specyficznych dla danej dziedziny, które zwiększają wykrywanie i reagowanie na zagrożenia w środowiskach cyberbezpieczeństwa.