Connect with us

Liderzy opinii

Nowe Zagrożenia Bezpieczeństwa Związane z Szybkim Wdrażaniem GenAI, Które Organizacje Muszą Rozwiązać

mm mm

Generatywna sztuczna inteligencja (GenAI) przeszła drogę od ciekawostki do kluczowej siły napędowej technologii w przedsiębiorstwach. Jej zdolność do generowania tekstu, kodu, obrazów i wniosków na żądanie sprawiła, że stała się niezbędna dla pracowników pragnących uporać się ze złożonością i przyspieszyć produktywność. Jednak wraz z tą innowacyjnością i wydajnością pojawia się ogromna ekspozycja na ryzyko.

W rozmowach z kadrą zarządzającą i liderami ds. ładu AI z różnych branż, jeden temat pojawia się raz za razem: bezpieczeństwo danych przeszło od kluczowej kwestii do centralnego punktu ich strategii i jest obecnie głównym wyzwaniem związanym z adopcją AI. W przeciwieństwie do tradycyjnego oprogramowania, a nawet poprzednich fal uczenia maszynowego, GenAI fundamentalnie zmienia proces zabezpieczania danych w organizacji.

Ostatnie badanie MIT wykazało, że 95% pilotażowych wdrożeń GenAI w przedsiębiorstwach kończy się niepowodzeniem. Nie dlatego, że technologia jest słaba; to dlatego, że przedsiębiorstwom brakuje ram zarządzania i bezpieczeństwa potrzebnych do odpowiedzialnej i właściwej operacjonalizacji GenAI. W innym badaniu MIT, liderzy przedsiębiorstw wskazali bezpieczeństwo danych jako największe ryzyko biznesowe i bezpieczeństwa utrudniające szybszą adopcję AI. Ponadto, “shadow AI”, czyli nieautoryzowane korzystanie przez pracowników z publicznych narzędzi, jest powszechnie uznawane za czynnik napędzający gwałtowny wzrost ryzyk związanych z danymi poza kontrolą firmy.

Dostęp z najmniejszymi uprawnieniami to model bezpieczeństwa, w którym każdemu podmiotowi, czy to użytkownikowi, programowi, czy procesowi, przyznaje się jedynie minimalny poziom dostępu i uprawnień niezbędnych do wykonywania jego prawowitych funkcji. GenAI jednak wywraca cały ten paradygmat do góry nogami: sama zasada najmniejszych uprawnień staje się ograniczeniem, które kłóci się z założeniami działania tych systemów. Dzieje się tak, ponieważ korporacyjne narzędzia GenAI zwykle zapewniają większe zyski produktywności, gdy mają dostęp do większej ilości danych biznesowych i kontekstu biznesowego.

W miarę jak adopcja GenAI przyspiesza, użytkownicy wciąż odkrywają nowe zastosowania GenAI, z których większość wynika z organicznych eksperymentów i ciekawości, a nie z odgórnego, biznesowego planowania. Jeśli podmiot nie może zdefiniować zadań, do których będzie używane GenAI, ani typów danych, do których potrzebuje dostępu, staje się niewykonalne ustanowienie uprawnień dostępu z najmniejszymi przywilejami. Ponadto, użytkownik może mieć odpowiedni dostęp do zbioru danych i prawowicie podać go jako dane wejściowe do narzędzia GenAI, ale gdy dane te zostaną przetworzone, nie są już związane oryginalnymi uprawnieniami użytkownika. Zamiast tego, mogą zostać wchłonięte przez model, ujawnione w przyszłych wynikach lub udostępnione innym osobom korzystającym z tego samego narzędzia. Ponieważ GenAI niekoniecznie dziedziczy kontrolę dostępu do danych, skutecznie uniemożliwia to egzekwowanie zasady najmniejszych uprawnień.

Zagrożenia GenAI do Rozważenia

GenAI tworzy rozległą i stale rozszerzającą się powierzchnię danych, komplikując zarządzanie danymi i bezpieczeństwo w przedsiębiorstwach na kilka powiązanych ze sobą sposobów. Obejmują one:

Wyciek danych wejściowych – GenAI może przetwarzać dane w surowej formie, w tym tekst, obrazy, dźwięk, wideo i dane strukturalne. Użytkownicy końcowi mogą teraz z minimalnym wysiłkiem lub wiedzą kierować narzędzia GenAI do nowych zbiorów danych. Zamiast być ograniczone do starannie przygotowanych, ustrukturyzowanych tabel ze zdefiniowanymi schematami i relacjami, te zbiory danych mogą obejmować nagrania rozmów sprzedażowych, notatki e-mail z CRM, transkrypcje obsługi klienta i wiele więcej. W praktyce pracownicy wprowadzają do promptów wysoce poufne informacje biznesowe, w tym dane osobowe klientów (PII), własność intelektualną, prognozy finansowe, a nawet kod źródłowy.

Narażenie danych wyjściowychModele generatywne nie tylko konsumują, ale też syntetyzują. Prompt może nieumyślnie wyciągać wnioski z różnych zbiorów danych i udostępniać je użytkownikom bez odpowiednich uprawnień. W niektórych przypadkach wyniki mogą nawet “halucynować” dane, które wydają się prawdziwe, ale zawierają fragmenty rzeczywistych, wysoce poufnych materiałów treningowych.

Narzędzia GenAI działają lepiej, gdy mają kontekst dla danego zadania. W rezultacie, nie tylko GenAI przetwarza istniejące informacje, ale użytkownicy tworzą też nowe dane, aby je naprowadzać, w formie rozbudowanych, szczegółowych promptów dokumentujących kontekst biznesowy, wewnętrzne procesy i inne potencjalnie wrażliwe lub kluczowe dla biznesu informacje.

Dostępność bez nadzoruTradycyjne systemy przedsiębiorstw wymagały wdrożenia dostawcy i przygotowania przez IT. Dziś GenAI jest osadzona wszędzie – w pakietach Microsoft Office, przeglądarkach, narzędziach czatu i platformach SaaS. Pracownicy mogą ją przyjąć natychmiast, całkowicie omijając zarządzanie. Ten bezproblemowy dostęp napędza “shadow AI”, a każde nieautoryzowane użycie GenAI to potencjalne zdarzenie eksfiltracji danych, dziejące się niewidocznie, na dużą skalę i poza obrębem zarządzania przedsiębiorstwa.

Ryzyko drugiego szczebla w łańcuchu dostaw – Dostawca może wydawać się bezpieczny, ale często polega na podwykonawcach, takich jak hosty w chmurze, usługi anotacji czy zewnętrzne laboratoria AI. Każdy z nich wprowadza własne umowy licencyjne użytkownika końcowego (EULA) i polityki. Wrażliwe dane przedsiębiorstwa mogą przepływać przez wiele niewidocznych rąk, jednak odpowiedzialność spoczywa wyłącznie na przedsiębiorstwie. Na przykład, przedsiębiorstwo może mieć dostawcę, który wcześniej przeszedł proces wdrożenia, ale ten dostawca używa teraz narzędzia GenAI, które może pozwolić na wykorzystanie danych przedsiębiorstwa jako danych treningowych, z istotnymi skutkami w dalszych etapach.

Luki w zarządzaniu danymi treningowymi – Gdy dane trafią do modelu AI, kontrola skutecznie się kończy. Przedsiębiorstwa nie mogą łatwo wycofać lub zarządzać sposobem wykorzystania swoich informacji. Własna wiedza może przetrwać, a następnie pojawić się w wynikach długo po tym, jak zapomniano o jej źródle. Nie spotkaliśmy jeszcze żadnego narzędzia GenAI, które pozwalałoby na żądanie usunięcia przetworzonych przez nie informacji, podobnie jak ma to miejsce w przepisach dotyczących prywatności, takich jak Ogólne Rozporządzenie o Ochronie Danych (RODO) czy California Consumer Privacy Act (CCPA). Wdrożenie takich procesów jest mało prawdopodobne, dopóki regulacje nie wymuszą zmiany.

Ryzyko kodu aplikacji – AI coraz częściej pisze kod stanowiący podstawę systemów biznesowych. Deweloperzy korzystający z narzędzi GenAI, takich jak Microsoft Copilot, do generowania kodu mogą nieświadomie wprowadzać niebezpieczne zależności, propagować luki bezpieczeństwa lub osadzać kod objęty sprzecznymi licencjami open source. Po wdrożeniu te słabości stają się osadzone w łańcuchu dostaw oprogramowania.

Radzenie Sobie z Ryzykiem GenAI

GenAI jest już osadzona w przepływach pracy przedsiębiorstw, więc pytanie dla firm nie brzmi, czy ją przyjąć, ale jak to zrobić odpowiedzialnie. Przyjęcie GenAI bez zarządzania ryzykuje kosztownymi naruszeniami, karami regulacyjnymi i szkodą dla reputacji. Ale blokowanie jej tylko zmusza pracowników do korzystania z nieautoryzowanych rozwiązań. Jedyną drogą naprzód jest umożliwienie działania w oparciu o widoczność i kontrolę.

Zarządzanie GenAI wymaga widoczności opartej na kontekście, nie tylko tego, jakie dane ma przedsiębiorstwo, gdzie się znajdują i kto ma do nich dostęp, ale także tego, jak GenAI jest używana. Przedsiębiorstwa muszą widzieć, do jakich narzędzi się uzyskuje dostęp, jakie prompty są wprowadzane i czy poufne dane opuszczają ich środowisko. Następnie mogą zastosować odpowiednie kontrole, aby monitorować prompty i wyniki w czasie rzeczywistym, flagować ryzykowne sesje lub anomalne przepływy danych, blokować nieautoryzowane narzędzia, filtrować wrażliwe prompty przed ich wysłaniem, anonimizować poufne dane podczas wprowadzania ich do promptów i egzekwować ograniczenia oparte na rolach dla wniosków generowanych przez AI.

GenAI to zupełnie nowa warstwa ryzyka i szans dla przedsiębiorstw. Zarządzanie nią wymaga nastawienia, że bezpieczeństwo nie jest hamulcem dla innowacji, ale fundamentem, który czyni ją bezpieczną.

//concentric.ai/">Concentric. Przed dołączeniem do Concentric, Dr. Shashanka pełnił funkcję Dyrektora Zarządzającego zespołu Data Science i Machine Learning w Charles Schwab. Współzałożył firmę PetaSecure i był jej Głównym Naukowcem przed jej przejęciem przez Niara.

Lane Sullivan serves as the Senior Vice President and Chief Information Security and Strategy Officer at Concentric AI, leading the company's global cybersecurity program and influencing product strategy to enhance enterprise data security and AI governance. Previously, Lane held the position of Senior Vice President and Chief Information Security Officer at Magellan Health, focusing on compliance within a highly regulated environment. Experience also includes directing a multi-million-dollar cybersecurity program at Ingram Content Group, and providing infrastructure leadership at C&S Wholesale Grocers. Lane's leadership roles span back to JT Investments, where operations and technology were managed, and Basin Home Health & Hospice Inc., where significant advancements in healthcare IT were achieved. Lane's educational background includes a Master's degree in Computer and Information Systems Security from Western Governors University, complementing a Bachelor's degree in IT Management from the same institution.