Liderzy opinii
Odkrywanie ukrytych zagrożeń związanych z Shadow AI

Przedsiębiorstwa nie potrzebowały dużo czasu, by doświadczyć powszechnego stosowania generatywnej sztucznej inteligencji (GenAI) wśród swoich pracowników. Jednak jeśli chodzi o ryzyko związane z GenAI, to nie narzędzia znane w Twojej organizacji powinny budzić największy niepokój. To te, o których nie wiesz, powinny spędzać Ci sen z powiek.
Dzięki szybkiej ekspansji narzędzi GenAI, takich jak ChatGPT, Copilot, Gemini i Perplexity, wraz z wieloma wyspecjalizowanymi asystentami opartymi na SaaS, pracownicy przyjmują je szybciej, niż zespoły bezpieczeństwa są w stanie nadążyć. To użycie tworzy szybko rosnącą martwą strefę znaną jako shadow AI.
Jeśli termin shadow AI brzmi znajomo, to dlatego, że zapożycza go od shadow IT, używanego do opisu stosowania niezatwierdzonych narzędzi i usług w miejscu pracy. Ale w przypadku shadow AI stawka może być jeszcze wyższa. Zamiast nieautoryzowanej aplikacji do udostępniania plików, shadow AI może skutkować wrażliwymi danymi wklejonymi w pole promptu czatu, przetworzonymi przez zewnętrzne modele i nieświadomie udostępnionymi systemom stron trzecich.
Shadow AI reprezentuje jedno z najmniej widocznych, ale najbardziej pilnych zagrożeń dla bezpieczeństwa danych w przedsiębiorstwach w dzisiejszych czasach.
Czym jest Shadow AI?
Shadow AI odnosi się do nieautoryzowanego używania narzędzi AI – zwłaszcza GenAI – przez pracowników bez wiedzy lub zgody działów IT lub bezpieczeństwa firmy. W organizacji użytkownikami mogą być zespół marketingu tworzący wpisy na bloga za pomocą dużych modeli językowych (LLM), zespół prawny badający język umów w narzędziach AI lub inżynierowie debugujący kod za pomocą darmowych nakładek GPT.
I chociaż takie eksperymenty mogą wydawać się nieszkodliwe, to informacje udostępniane tym narzędziom już takie nie są. Mogą to być poufne slajdy strategiczne lub dane klientów. Te dane ostatecznie trafiają do nieszyfrowanych promptów, bez nadzoru i bez możliwości śledzenia, co się z nimi dzieje dalej.
Dlaczego Shadow AI stanowi problem?
Problem shadow AI jest kłopotliwy, ponieważ wystarczy pracownik z dobrymi intencjami i dostępem do ChatGPT, aby stworzyć ryzyko dla bezpieczeństwa danych. W przeciwieństwie do hakera, shadow AI nie jest złośliwe, ale to nie czyni go mniej niebezpiecznym. Za każdym razem, gdy wrażliwe dane są dodawane do promptu, są one potencjalnie narażone na dostęp ze strony modelu, dostawcy i każdego, kto ma dostęp do logów. Mogą nawet pojawić się ponownie w odpowiedzi na prompt innego użytkownika. A najgorsze jest to, że prawdopodobnie nigdy się nie dowiesz, że to się stało.
Oto pięć kluczowych zagrożeń związanych z shadow AI, na które należy zwrócić uwagę.
1. Wyciek danych poprzez dane wejściowe promptów – Pola promptów są czarną dziurą bezpieczeństwa danych. Gdy poufne informacje, takie jak kod źródłowy, dokumenty fuzji i przejęć czy szczegóły wynagrodzeń, zostaną udostępnione narzędziu GenAI, wymykają się spod Twojej kontroli. Nawet jeśli dostawca AI obiecuje, że dane nie są przechowywane, egzekwowanie tego jest niejasne, a gwarancje dotyczące szkolenia modeli lub telemetrii są niewielkie.
2. Brak kontroli dostępu lub dzienników audytu – W przeciwieństwie do zatwierdzonych aplikacji korporacyjnych, większość narzędzi GenAI nie oferuje kontroli dostępu opartych na rolach, szczegółowych uprawnień ani dzienników aktywności, co oznacza, że zespoły bezpieczeństwa nie mają wglądu w to, kto, kiedy i do jakich danych miał dostęp. Jeśli dojdzie do incydentu, nie ma czego badać.
3. Naruszenia zgodności – Wiele z niezliczonych przepisów zgodności, których muszą przestrzegać organizacje, nakazuje, aby regulowane dane były przechowywane, przetwarzane i dostępne w bardzo specyficzny sposób. Przekazywanie tych danych do zewnętrznego modelu AI może naruszać te zasady, narażając organizację na ryzyko prawne, kary finansowe i obowiązkowe zgłaszanie naruszeń.
4. Krążenie nieaktualnych lub tendencyjnych informacji – Narzędzia GenAI często podają odpowiedzi z pewnością siebie i przedstawiają je jako fakty, nawet gdy są bardzo błędne. Poleganie na tych wynikach przy tworzeniu komunikatów dla klientów, podsumowań zgodności lub raportów finansowych bez weryfikacji może prowadzić do podejmowania decyzji biznesowych w oparciu o nieprecyzyjne dane. Halucynacje występują regularnie i nie wydają się znikać, nawet gdy te LLM-y stają się mądrzejsze.
5. Shadow AI, które staje się shadow data – Dane wyjściowe z narzędzi GenAI, w tym podsumowania i fragmenty kodu, są często zapisywane, udostępniane i wykorzystywane ponownie. Ponieważ zostały stworzone poza formalnymi procesami, te pliki stają się nieśledzonymi, niesklasyfikowanymi i niechronionymi danymi cienia (shadow data).
W większości przypadków, w związku z shadow AI, nikt w dziale bezpieczeństwa nie ma pojęcia, kiedy dochodzi do naruszenia. Te przykłady z rzeczywistego świata mogą mieć miejsce w Twojej organizacji:
- Młodszy inżynier oprogramowania wkleja zastrzeżony kod do darmowego debuggera opartego na GPT.
- Przedstawiciel handlowy wprowadza listę klientów z ostatniego kwartału do generatora e-maili AI, aby stworzyć oferty upsell.
- Kierownik HR używa zewnętrznego narzędzia AI do analizy odpowiedzi z ankiety satysfakcji pracowników.
- Analityk finansowy prosi ChatGPT o uproszczenie języka poufnych prognoz przychodów dla kadry zarządzającej.
- Prawnik prosi GenAI o przepisanie umowy z użyciem poufnej klauzuli z umowy klienta.-
Dlaczego tradycyjne narzędzia bezpieczeństwa nie wykrywają Shadow AI
Tradycyjne stosy zabezpieczeń nie są zbudowane pod kątem zagrożeń opartych na promptach GenAI. Na przykład zapora sieciowa nie może blokować narzędzi AI działających w przeglądarce. CASB nie zobaczy, co jest wpisywane w okna czatu. A SIEM nie zaalarmuje, kto właśnie poprosił LLM o podsumowanie poufnej własności intelektualnej.
Shadow AI działa na poziomie aplikacji i żyje w przeglądarce, gdzie widoczność jest najsłabsza. Pracownicy używają również swoich urządzeń osobistych. Nie ma wtyczki, która by ich powstrzymała, znaku wodnego, by śledzić, jakie dane wyciekły, ani alertu, gdy dane przekroczą granicę. A zanim pojawią się w alertzie DLP, o ile w ogóle się pojawią, dane są już ujawnione.
Jak identyfikować i eliminować ryzyka związane z Shadow AI
Nie można kontrolować tego, czego się nie widzi, a w przypadku GenAI większość organizacji działa po omacku. Tradycyjne narzędzia nie zostały stworzone, aby rozumieć interakcje oparte na promptach lub śledzić, co się dzieje po kliknięciu przez użytkownika „Enter”.
Jednak nowe, napędzane AI podejścia do bezpieczeństwa są w stanie sprostać wyzwaniu i pomóc organizacjom wydobyć shadow GenAI z cienia. Oto kilka zabezpieczeń oferowanych przez zaawansowane rozwiązania:
Wykrywanie shadow AI – Te narzędzia identyfikują, które aplikacje GenAI wykorzystują Twoi użytkownicy, nawet te działające w przeglądarce, które omijają tradycyjne kontrole. Analizują przepływ danych, wzorce dostępu i kontekst, aby wykrywać naruszenia bez konieczności instalowania agentów na endpointach lub inwazyjnego monitorowania.
Klasyfikacja tego, co jest poufne – Nowoczesne rozwiązania wykorzystują AI świadomą kontekstu, aby zrozumieć zarówno treść, jak i kontekst danych. Oznacza to, że mogą one oznaczać ryzyka, takie jak prognoza przychodów osadzona w slajdzie PowerPoint lub dane klienta umieszczone w szkicu e-maila. To rodzaj treści, które pracownicy mogą bez zastanowienia przekazać do GenAI.
Zapobieganie ryzykownym zachowaniom związanym z promptami – Gdy poufne dane zostaną odkryte i zlokalizowane, bezpieczeństwo danych oparte na AI pomaga zapobiec ich ujawnieniu. Te narzędzia oznaczają, redagują lub blokują ryzykowne dane wejściowe promptów, zanim opuszczą one organizację.
Porządkowanie shadow data – Prompty GenAI często generują falę nowych plików, takich jak podsumowania, szkice i odpowiedzi, które są zapisywane, udostępniane i zapominane. Zaawansowane platformy bezpieczeństwa danych identyfikują te powstałe w dalszym procesie artefakty, wykrywają ryzyka ujawnienia (takie jak nadmierne uprawnienia dostępu lub nieodpowiednie przechowywanie) i usuwają je, zanim utrata danych trafi na pierwsze strony gazet.
Shadow AI nie jest ryzykiem teoretycznym. Jest realne, rośnie i dzieje się w Twoim środowisku już teraz, niezależnie od tego, czy to widziałeś, czy nie. Zakazywanie narzędzi GenAI nie jest realistyczne, ale przymykanie na to oka jest niezwykle ryzykowne. Organizacje potrzebują widoczności, kontroli i inteligencji wokół użycia GenAI – nie tylko dla tego, co wychodzi, ale także dla tego, co jest wprowadzane.
Dostępne są nowe podejścia, które odkrywają ryzykowne zachowania, zapobiegają przypadkowemu ujawnieniu i sprzątają bałagan danych, który pozostawiają po sobie AI i shadow AI.












