Sztuczna inteligencja
Jak AI stało się największym kanałem eksfiltracji danych

Liderzy przedsiębiorstw zainwestowali miliardy w narzędzia AI, aby przyspieszyć produktywność i innowacje. Ale najnowsze dane ujawniają poważne ryzyko, którego wiele organizacji nie przewidziało. Te same platformy AI, które pomagają pracownikom pracować szybciej, stały się największym kanałem dla wrażliwych danych, opuszczających środowiska korporacyjne. Ostatnie ustalenia ujawniają, że 77% pracowników wkleja dane do generatywnych narzędzi AI, a 40% plików przesyłanych do tych platform zawiera dane osobowe lub informacje o kartach płatniczych. To się dzieje właśnie teraz, w skali, w organizacjach, które uważają, że mają odpowiednie kontrole bezpieczeństwa. To pokazuje, że istnieje fundamentalna rozbieżność między tym, jak firmy myślą, że AI jest używany, a tym, co tak naprawdę dzieje się, gdy pracownicy wchodzą w interakcje z tymi narzędziami codziennie. Zrozumienie tego przesunięcia jest pierwszym krokiem w kierunku budowania strategii bezpieczeństwa, które odpowiadają nowej rzeczywistości.
Jak AI stało się nowym wektorem wycieku danych
Dwa lata temu generatywne AI prawie nie istniały w przepływach pracy przedsiębiorstw. Dziś 45% wszystkich pracowników przedsiębiorstw aktywnie używa platform AI, a 11% wszystkich działań przedsiębiorstw odbywa się na tych narzędziach. ChatGPT sam osiągnął 43% penetracji wśród pracowników, tempo, którego inne platformy komunikacyjne potrzebowały dekad, aby osiągnąć.
Szybkość tej adopcji stworzyła próżnię bezpieczeństwa. Tradycyjne systemy zapobiegania utracie danych zostały zaprojektowane dla transferów plików, załączników e-mail i ruchu sieciowego. Nigdy nie zostały one zaprojektowane do monitorowania tego, co pracownicy wpisują w pola promptów lub wklejają do interfejsów czatu. To ślepe pole stało się główną trasą ucieczki wrażliwych informacji.
Generatywne AI odpowiadają obecnie za 32% wszystkich ruchów danych z kont korporacyjnych na konta osobiste. To sprawia, że jest to największy kanał eksfiltracji danych, przewyższając współdzielone pliki, e-mail i każdy inny kanał, który zespoły bezpieczeństwa próbowały zabezpieczyć przez lata. Problem nie dotyczy tylko objętości, ale także natury wycieku. Gdy ktoś przesyła dokument do serwera plików, jest zapis. Gdy wkleja dane klienta do promtu AI, ten transfer często zachodzi poza wszelkim systemem logowania lub monitorowania.
Problem kont osobistych
Problemem nie jest użycie narzędzi AI, ale sposób, w jaki pracownicy uzyskują do nich dostęp. Modele bezpieczeństwa przedsiębiorstw zakładają, że pracownicy używają kont korporacyjnych z uwierzytelnianiem logowania jednokrotnego, logowaniem i nadzorem. Dane pokazują, że ten założenie jest błędne, a około 67% użycia AI odbywa się za pośrednictwem niezarządzanych kont osobistych. Są to adresy Gmail, osobiste konta Microsoft lub bezpośrednie zapisy, które omijają całkowicie systemy tożsamości korporacyjnej. Gdy ktoś loguje się do ChatGPT za pomocą swojego osobistego adresu e-mail, firma nie ma widoczności tego, jakie pytania zadaje, jakie dane udostępnia, czy jakie wrażliwe informacje mogą pojawić się w odpowiedziach.
Nawet gdy pracownicy używają kont korporacyjnych, te poświadczenia często nie mają federacji. 83% logowań ERP i 71% logowań CRM odbywa się bez logowania jednokrotnego. To oznacza, że logowanie korporacyjne oferuje prawie tyle samo bezpieczeństwa lub widoczności, co konto osobiste. Nazwa użytkownika może mieć domenę firmy, ale uwierzytelnianie pozwala na te same niewidoczne przepływy danych.
Kopiuj i wklej: niewidzialny wyciek danych
Tradycyjne strategie zapobiegania utracie danych (DLP) zostały zaprojektowane z uwzględnieniem systemów plików. Monitorują one przesyłanie, pobieranie i załączniki. Ale dane pokazują, że prawdziwym źródłem wycieku danych nie są pliki. To kopiuj i wklej. 77% pracowników wkleja dane do generatywnych narzędzi AI. 82% tej aktywności pochodzi z niezarządzanych kont osobistych. Średnio każdy pracownik wykonuje 15 wklejeń dziennie przy użyciu swoich kont osobistych, a co najmniej cztery z nich zawierają wrażliwe dane osobowe lub informacje o kartach płatniczych.
To oznacza, że wrażliwe informacje nie poruszają się już tylko przez przesyłanie plików. Są one również wstrzykiwane bezpośrednio do promptów, okien czatu i pól tekstowych. Te transfery bez plików są prawie niewidoczne dla tradycyjnych rozwiązań DLP. Zachodzą one z wysoką częstotliwością, na wielu platformach i poza nadzorem przedsiębiorstwa.
Wynikiem jest ciągły strumień wrażliwych danych opuszczających organizację w sposób trudny do wykrycia. Kopiuj i wklej stało się nowym kanałem eksfiltracji, a narzędzia AI są najważniejszym miejscem docelowym.
Wrażliwe pliki w nieautoryzowanych miejscach
Przesyłanie plików pozostaje centralną częścią przepływów pracy przedsiębiorstw. Ale miejsca przeznaczenia uległy zmianie. Pracownicy nie ograniczają już przesyłania plików do zatwierdzonych magazynów lub poczty e-mail. Przenoszą pliki do generatywnych narzędzi AI, aplikacji konsumenckich i platform SaaS w cieniu.
Dane pokazują, że 40% plików przesyłanych do generatywnych narzędzi AI zawiera dane osobowe lub finansowe. 41% plików przesyłanych do platform magazynowania plików zawiera te same dane. Blisko 4 na 10 tych przesyłeń odbywa się przez konta osobiste.
To oznacza, że wrażliwe dane płyną do środowisk, w których przedsiębiorstwa nie mają widoczności i kontroli. Gdy plik jest przesłany do osobistego Google Drive, czatu WhatsApp lub promtu AI, jest on skutecznie poza terenem przedsiębiorstwa. Nie można go śledzić, ograniczyć ani usunąć.
Miejsca przeznaczenia są zróżnicowane. Narzędzia przedsiębiorstw, takie jak Egnyte i Zendesk, pojawiają się obok platform konsumenckich, takich jak Canva, LinkedIn i WhatsApp. To mieszanie się ekosystemów przedsiębiorstw i konsumentów rozmywa granice, gdzie znajdują się dane korporacyjne. To również ujawnia ograniczenia tradycyjnego DLP, które zostało zaprojektowane dla zatwierdzonych kanałów i scentralizowanej kontroli.
Co to oznacza dla bezpieczeństwa przedsiębiorstw
Tradycyjny perimeter bezpieczeństwa załamał się. Dawniej było możliwe kontrolowanie danych, zarządzając sieciami, zabezpieczając punkty końcowe i monitorując zatwierdzone aplikacje. Ten model zakłada, że praca odbywa się wewnątrz systemów korporacyjnych i tylko okazjonalnie wykorzystuje zewnętrzne platformy przez kontrolowane kanały.
Rzeczywistość jest taka, że praca odbywa się teraz w przeglądarce, na dziesiątkach aplikacji, przez konta korporacyjne i osobiste, przy użyciu metod, które nie tworzą śladu audytowego. Pracownik badający problem klienta może wyszukiwać w systemach wewnętrznych, wklejać wyniki do ChatGPT w celu podsumowania, kopiować to podsumowanie do Slack, aby podzielić się z kolegami, i do przodu za pośrednictwem osobistej poczty e-mail, aby przejrzeć później. Każdy krok obejmuje wrażliwe dane poruszające się przez kanały, których tradycyjne narzędzia nie mogą zobaczyć.
Przeglądarka stała się głównym miejscem pracy, ale kontrole bezpieczeństwa nie poszły za tym. Pracownicy spędzają dni, przechodząc między aplikacjami, a dane pokazują, że robią małą różnicę między narzędziami korporacyjnymi a osobistymi. Używają tego, co działa, co jest wygodne, co nie wymaga oczekiwania na zatwierdzenie IT. To tworzy środowisko, w którym wrażliwe informacje ciągle płyną na zewnątrz przez niewidoczne kanały.
Zmiana myślenia o bezpieczeństwie przedsiębiorstw w erze AI
Rozwiązaniem nie jest blokowanie narzędzi AI ani zakazywanie kont osobistych. Te podejścia zawodzą, ponieważ walczą z tym, jak pracownicy naprawdę pracują. Narzędzia te istnieją, ponieważ sprawiają, że ludzie są bardziej produktywni. Konta osobiste się rozprzestrzeniają, ponieważ korporacyjne przydzielanie jest powolne i ograniczające. Bezpieczeństwo, które ignoruje te rzeczywistości, zostanie po prostu ominięte.
Skuteczna ochrona wymaga widoczności na poziomie przeglądarki, gdzie odbywa się praca. To oznacza monitorowanie nie tylko przesyłania plików, ale także operacji wklejania, wysyłania formularzy, interakcji z promptami i każdego innego sposobu, w jaki dane poruszają się między systemami. To oznacza egzekwowanie polityk, które różnicują między kontami korporacyjnymi a osobistymi, niezależnie od tego, jaką aplikację ktoś używa.
Organizacje muszą rozszerzyć zapobieganie utracie danych poza pliki, aby objąć transfery bez plików. Prompt wysłany do ChatGPT powinien otrzymać taką samą uwagę, jak załącznik e-mail. Operacja wklejania do Slack powinna wyzwalać takie same kontrole, jak przesyłanie do Google Drive. Metoda transferu nie powinna decydować o tym, czy zastosowano bezpieczeństwo.
Kontrole tożsamości muszą być naprawdę egzekwowane. Nie wystarczy oferować logowania jednokrotnego, jeśli pracownicy mogą nadal uzyskać dostęp do aplikacji biznesowych za pośrednictwem kont osobistych. Uwierzytelnianie federacyjne musi być obowiązkowe dla każdej aplikacji, która obsługuje wrażliwe dane, a nie opcjonalne. Niezfederyzowane logowania korporacyjne powinny być traktowane jako ryzyko bezpieczeństwa, którym są.
Podsumowanie
AI stało się najszybciej rosnącą kategorią w oprogramowaniu przedsiębiorstw. Stało się również największym kanałem eksfiltracji danych. 77% pracowników wkleja dane do narzędzi AI. 40% przesyłanych plików zawiera wrażliwe informacje. Większość tej aktywności odbywa się przez niezarządzane konta. Stary perimeter bezpieczeństwa nie istnieje już. Większość pracy odbywa się w przeglądarce, a nawet proste akcje, takie jak wklejanie tekstu, mogą prowadzić do naruszeń. Firmy, które nie zaktualizują swoich strategii bezpieczeństwa o tę nową rzeczywistość, już tracą kontrolę nad swoimi najcenniejszymi danymi.












