Sztuczna inteligencja
Jak sztuczna inteligencja stała się kanałem nr 1 eksfiltracji danych

Liderzy przedsiębiorstw zainwestowali miliardy w narzędzia AI, aby przyspieszyć produktywność i innowacyjność. Jednak najnowsze dane ujawniają poważne ryzyko, którego wiele organizacji się nie spodziewało. Te same platformy AI, które pomagają pracownikom pracować szybciej, stały się największym kanałem dla poufnych danych opuszczających środowiska korporacyjne. Ostatnie ustalenia pokazują, że 77% pracowników wkleja dane do generatywnych narzędzi AI, a 40% plików przesyłanych na te platformy zawiera dane osobowe umożliwiające identyfikację lub dane kart płatniczych. Dzieje się to teraz, na dużą skalę, w organizacjach, które wierzą, że mają właściwe zabezpieczenia. Pokazuje to fundamentalną rozbieżność między tym, jak firmy myślą, że AI jest używana, a tym, co faktycznie dzieje się, gdy pracownicy codziennie korzystają z tych narzędzi. Zrozumienie tej zmiany to pierwszy krok w kierunku budowania strategii bezpieczeństwa odpowiadających nowej rzeczywistości.
Jak AI stało się nowym wektorem wycieku danych
Dwa lata temu generatywna sztuczna inteligencja praktycznie nie istniała w przepływach pracy przedsiębiorstw. Dziś 45% wszystkich pracowników przedsiębiorstw aktywnie korzysta z platform AI, a 11% całej aktywności przedsiębiorstw ma miejsce w tych narzędziach. Sam ChatGPT osiągnął 43% penetracji wśród pracowników, co jest wskaźnikiem, którego osiągnięcie zajęło innym platformom komunikacyjnym dziesięciolecia. Szybkość tej adopcji stworzyła próżnię bezpieczeństwa. Tradycyjne systemy zapobiegania utracie danych były budowane z myślą o transferach plików, załącznikach e-mail i ruchu sieciowym. Nigdy nie były projektowane do monitorowania tego, co pracownicy wpisują w pola promptów lub wklejają do interfejsów czatu. Ta martwa strefa stała się główną drogą ucieczki dla poufnych informacji. Generatywna AI odpowiada obecnie za 32% całego ruchu danych z kont korporacyjnych na osobiste. To czyni ją największym pojedynczym kanałem eksfiltracji danych, przewyższającym udostępnianie plików, e-mail i każdy inny kanał, który zespoły bezpieczeństwa latami próbowały zabezpieczyć. Problemem nie jest tylko skala, ale także natura wycieku. Gdy ktoś przesyła dokument na serwer plików, pozostaje ślad. Gdy wkleja dane klienta do promptu AI, ten transfer często odbywa się poza jakimkolwiek systemem logowania lub monitorowania.
Problem kont osobistych
Problemem nie jest korzystanie z narzędzi AI, ale sposób, w jaki pracownicy uzyskują do nich dostęp. Modele bezpieczeństwa przedsiębiorstw zakładają, że pracownicy korzystają z kont korporacyjnych z uwierzytelnianiem jednokrotnym, logowaniem i nadzorem. Dane pokazują, że to założenie jest błędne, a około 67% korzystania z AI odbywa się przez nienadzorowane konta osobiste. Są to adresy Gmail, osobiste konta Microsoft lub bezpośrednie rejestracje, które całkowicie omijają korporacyjne systemy tożsamości. Gdy ktoś loguje się do ChatGPT za pomocą swojego osobistego e-maila, firma nie ma wglądu w to, jakie zadaje pytania, jakie dane udostępnia ani jakie poufne informacje mogą pojawić się w odpowiedziach. Nawet gdy pracownicy korzystają z kont korporacyjnych, te dane logowania często nie są sfederowane. Osiemdziesiąt trzy procent logowań do ERP i 71% logowań do CRM odbywa się bez logowania jednokrotnego. Oznacza to, że korporacyjne logowanie oferuje prawie nie więcej bezpieczeństwa lub widoczności niż konto osobiste. Nazwa użytkownika może mieć domenę firmy, ale omijanie uwierzytelniania umożliwia te same niewidoczne przepływy danych.
Kopiuj i wklej: Niewidzialny wyciek danych
Tradycyjne strategie zapobiegania utracie danych (DLP) były budowane z naciskiem na systemy plików. Monitorują one przesyłanie, pobieranie i załączniki. Ale dane pokazują, że prawdziwym źródłem wycieku danych nie są pliki. Jest nim kopiowanie i wklejanie. Siedemdziesiąt siedem procent pracowników wkleja dane do generatywnych narzędzi AI. Osiemdziesiąt dwa procent tej aktywności pochodzi z nienadzorowanych kont osobistych. Średnio każdy pracownik wykonuje 15 operacji wklejania dziennie za pomocą swoich kont osobistych, a co najmniej cztery z nich zawierają poufne dane osobowe umożliwiające identyfikację lub informacje o kartach płatniczych. Oznacza to, że poufne informacje nie przemieszczają się już tylko przez przesyłanie plików. Są one również bezpośrednio wstrzykiwane do promptów, okien czatu i pól tekstowych. Te transfery bezplikowe są prawie niewidoczne dla tradycyjnych rozwiązań DLP. Dzieją się z dużą częstotliwością, na wielu platformach i poza nadzorem przedsiębiorstwa. Rezultatem jest ciągły strumień poufnych danych opuszczających organizację w sposób trudny do wykrycia. Kopiowanie i wklejanie stało się nowym kanałem eksfiltracji, a narzędzia AI są miejscem docelowym numer jeden.
Poufne pliki w niezatwierdzonych miejscach docelowych
Przesyłanie plików pozostaje centralną częścią przepływów pracy w przedsiębiorstwach. Ale miejsca docelowe się zmieniły. Pracownicy nie ograniczają już przesyłania do zatwierdzonych magazynów lub poczty e-mail. Przenoszą pliki do generatywnych narzędzi AI, aplikacji konsumenckich i cienistych platform SaaS. Dane pokazują, że 40% plików przesłanych do generatywnych narzędzi AI zawiera dane osobowe lub finansowe. Czterdzieści jeden procent plików przesłanych na platformy przechowywania plików zawiera to samo. Prawie 4 na 10 z tych przesyłek odbywa się za pośrednictwem kont osobistych. Oznacza to, że poufne dane płyną do środowisk, w których przedsiębiorstwa nie mają widoczności ani kontroli. Gdy plik zostanie przesłany do osobistego Dysku Google, czatu WhatsApp lub promptu AI, znajduje się faktycznie poza siedzibą przedsiębiorstwa. Nie można go śledzić, ograniczać ani usuwać. Miejsca docelowe są różnorodne. Narzędzia korporacyjne, takie jak Egnyte i Zendesk, pojawiają się obok platform konsumenckich, takich jak Canva, LinkedIn i WhatsApp. To mieszanie ekosystemów korporacyjnych i konsumenckich zaciera granice miejsc, w których znajdują się dane firmowe. Ujawnia to również ograniczenia tradycyjnego DLP, które było projektowane dla zatwierdzonych kanałów i scentralizowanej kontroli.
Co to oznacza dla bezpieczeństwa przedsiębiorstw
Tradycyjny perymetr bezpieczeństwa upadł. Kiedyś można było kontrolować dane, zarządzając sieciami, zabezpieczając punkty końcowe i monitorując zatwierdzone aplikacje. Ten model zakłada, że praca odbywa się wewnątrz systemów korporacyjnych i tylko okazjonalnie wykorzystuje zewnętrzne platformy przez kontrolowane kanały. Rzeczywistość jest taka, że praca odbywa się teraz w przeglądarkach, w dziesiątkach aplikacji, za pośrednictwem zarówno kont korporacyjnych, jak i osobistych, przy użyciu metod, które nie tworzą żadnego śladu audytowego. Pracownik badający problem klienta może przeszukiwać systemy wewnętrzne, wklejać ustalenia do ChatGPT w celu podsumowania, skopiować to podsumowanie do Slacka, aby udostępnić je kolegom, i przesłać je dalej za pomocą osobistego e-maila, aby przejrzeć później. Każdy krok wiąże się z przemieszczaniem poufnych danych przez kanały, których tradycyjne narzędzia nie widzą. Przeglądarka stała się głównym miejscem pracy, ale kontrole bezpieczeństwa za nią nie podążyły. Pracownicy spędzają dni na przechodzeniu między aplikacjami, a dane pokazują, że niewiele rozróżniają między narzędziami korporacyjnymi a osobistymi. Używają tego, co działa, co jest wygodne, co nie wymaga czekania na zgodę IT. Tworzy to środowisko, w którym poufne informacje nieustannie wypływają na zewnątrz przez niewidoczne kanały.
Przemyślenie bezpieczeństwa przedsiębiorstw na erę AI
Rozwiązaniem nie jest blokowanie narzędzi AI ani całkowity zakaz kont osobistych. Te podejścia zawodzą, ponieważ walczą z tym, jak pracownicy faktycznie pracują. Narzędzia istnieją, ponieważ czynią ludzi bardziej produktywnymi. Konta osobiste mnożą się, ponieważ korporacyjne udostępnianie jest wolne i restrykcyjne. Bezpieczeństwo, które ignoruje te realia, po prostu zostanie ominięte. Skuteczna ochrona wymaga widoczności na poziomie przeglądarki, gdzie faktycznie odbywa się praca. Oznacza to monitorowanie nie tylko przesyłania plików, ale także operacji wklejania, przesyłania formularzy, interakcji z promptami i każdego innego sposobu przemieszczania danych między systemami. Oznacza to egzekwowanie polityk, które rozróżniają konta korporacyjne i osobiste, niezależnie od tego, jakiej aplikacji ktoś używa. Organizacje muszą rozszerzyć zapobieganie utracie danych poza pliki, aby uwzględnić transfery bezplikowe. Prompt przesłany do ChatGPT powinien podlegać takiej samej kontroli jak załącznik e-mail. Operacja wklejenia do Slacka powinna uruchamiać te same kontrole co przesłanie do Google Drive. Sposób transferu nie powinien decydować o tym, czy bezpieczeństwo ma zastosowanie. Kontrole tożsamości muszą być rzeczywiście egzekwowane. Nie wystarczy oferować logowania jednokrotnego, jeśli pracownicy nadal mogą uzyskiwać dostęp do aplikacji biznesowych za pomocą kont osobistych. Uwierzytelnianie federacyjne musi być obowiązkowe dla każdej aplikacji obsługującej poufne dane, a nie opcjonalne. Niesfederowane logowania korporacyjne powinny być traktowane jako ryzyko bezpieczeństwa, którym są.
Podsumowanie
AI stało się najszybciej rozwijającą się kategorią w oprogramowaniu dla przedsiębiorstw. Stało się również kanałem numer jeden eksfiltracji danych. Siedemdziesiąt siedem procent pracowników wkleja dane do narzędzi AI. Czterdzieści procent przesyłanych plików zawiera poufne informacje. Większość tej aktywności odbywa się za pośrednictwem nienadzorowanych kont. Stary perymetr bezpieczeństwa już nie istnieje. Większość pracy odbywa się w przeglądarce, a nawet proste czynności, takie jak wklejanie tekstu, mogą prowadzić do naruszeń. Firmy, które nie zaktualizują swoich strategii bezpieczeństwa w obliczu tej nowej rzeczywistości, już tracą kontrolę nad swoimi najcenniejszymi danymi.












