Connect with us

Rohan Sathe, współzałożyciel i CEO Nightfall – seria wywiadów

Wywiady

Rohan Sathe, współzałożyciel i CEO Nightfall – seria wywiadów

mm

Rohan Sathe jest współzałożycielem i CEO Nightfall AI. Przed założeniem Nightfall, kierował zespołem backendowym w Uber Eats, budując usługi machine learning, takie jak przewidywanie czasu dostawy i prognozowanie popytu. Wystąpił jako gość w podcastach CISO Series i Artificial Intelligence Podcast, oraz innych.

Nightfall zapobiega wyciekowi danych za pomocą sztucznej inteligencji, automatyzując DLP (ochronę przed utratą danych) w aplikacjach SaaS i GenAI, punktach końcowych oraz przeglądarkach. Ciągle skanuje tekst i pliki w poszukiwaniu informacji osobowych, tajemnic handlowych, sekretów i poświadczeń; klasyfikuje zawartość za pomocą ML; oraz egzekwuje polityki w czasie rzeczywistym. Integracje obejmują Slack, Google Drive, GitHub i pocztę e-mail, z API/SDK dla niestandardowych aplikacji i LLM. Naprawa obejmuje redakcję, kwarantannę i usunięcie, a także szkolenie użytkowników, przepływy incydentów i wsparcie zgodności.

Ty i Isaac założyliście Nightfall w 2018 roku, opierając się na przekonaniu, że sztuczna inteligencja może poprawić, przyspieszyć i uczynić DLP bardziej dostępnym dla przedsiębiorstw. Czy mógłbyś opowiedzieć o tym, jak wyglądał ten moment założycielski i jak doszliście do pomysłu “AI-native DLP” już od samego początku?

We wczesnych dniach chcieliśmy wykorzystać machine learning do odkrywania i ochrony wrażliwych danych, gdziekolwiek się znajdują w chmurze i nowoczesnych przepływach pracy. Kiedy wyszliśmy z fazy stealth w 2019 roku, przedstawiliśmy się jako chmurowy, oparty na ML, SaaS DLP z wizją budowy “kontrolnego planu dla chmury danych”. Kiedy rozszerzyliśmy się poza SaaS, aby objąć exfiltrację danych na punktach końcowych i generatywnej AI, “AI-native DLP” stało się naszym określeniem.

Przed założeniem Nightfall, byłeś założycielem inżynierem w Uber Eats, gdzie zobaczyłeś na własne oczy, jak dane rozprzestrzeniają się na aplikacjach SaaS i chmury. Jak Twoje doświadczenia tam ukształtowały Twoją perspektywę na temat bezpieczeństwa danych, a jakie konkretny momenty lub wyzwania wywołały pomysł na Nightfall?

W Uber Eats, kierowałem zespołem backendowym i budowałem usługi machine learning – takie jak ETAs i prognozowanie popytu. Mieliśmy do czynienia z danymi na skalę petabajtów, rozproszonymi po wielu systemach, co jest środowiskiem, w którym wrażliwe informacje mogą się poruszać naprawdę szybko i często niewidocznie. To doświadczenie, połączone z tym, czego cały przemysł nauczył się z incydentów, takich jak naruszenie danych Ubera w 2016 roku – gdzie atakujący wykorzystali poświadczenia, które zostały ujawnione w kodzie na GitHub, aby dostać się do danych AWS – naprawdę podkreśliło, jak to połączenie rozprzestrzeniania danych, poświadczeń i infrastruktury chmury tworzy to nieproporcjonalne ryzyko bez lepszych mechanizmów wykrywania i zabezpieczeń. Te realia ukształtowały skupienie Nightfall na świadomej odkrywaniu i zapobieganiu już od samego początku.

Nightfall został uruchomiony publicznie w 2019 roku z finansowaniem serii A. Czy mógłbyś opowiedzieć o wczesnej drodze od fazy stealth do uruchomienia, w tym o kluczowych punktach zwrotnych?

Działaliśmy w fazie stealth przez około rok, a następnie uruchomiliśmy się oficjalnie 7 listopada 2019 roku z finansowaniem w wysokości 20,3 miliona dolarów, prowadzonym przez Bain Capital Ventures i Venrock. Wczesne punkty zwrotne dotyczyły głównie budowy szerokich integracji z SaaS i rozwoju wyższej dokładności klasyfikacji zawartości opartej na ML, która mogłaby zmniejszyć fałszywe pozytywy, które dotknęły rozwiązania DLP.

Cień AI odnosi się do niekontrolowanego użycia narzędzi takich jak ChatGPT, Gemini i Copilot w miejscu pracy, często powodując niewidoczne wycieki danych. Jak definiujesz Cień AI, i dlaczego jest to coraz większym problemem dla nowoczesnych organizacji?

Definiujemy Cień AI jako nieautoryzowane lub niekontrolowane użycie narzędzi AI przez pracowników – myśl o wklejaniu kodu źródłowego lub danych klientów do chatbotów – co tworzy ryzyko narażenia poza granicami zarządzania IT. Ta definicja pokrywa się z tym, co widzimy od innych graczy branżowych, takich jak IBM i Splunk. Cień AI jest podstawowo AI używanym bez zatwierdzenia lub nadzoru, co wprowadza te punkty ślepe i potencjalne ryzyko wycieku danych. Połączenie łatwych w użyciu aplikacji Generative AI i braku odpowiednich kontroli jest powodem, dla którego ten problem rośnie tak szybko.

Opisałeś wiele sposobów, w jakie podejście Nightfall do Cienia AI różni się od tradycyjnego DLP. Która z tych funkcji – czy to monitorowanie świadome kontekstu, linia danych, czy blokadę w czasie rzeczywistym – okazała się najbardziej wpływowa dla Twoich klientów?

Z tego, co słyszymy od klientów, są dwie główne możliwości, które robią największą różnicę. Po pierwsze, kontrola przed wysłaniem – złapanie wrażliwej zawartości przed wysłaniem do narzędzi AI lub opublikowaniem w sieci. Po drugie, nasza AI-natyczna detekcja, która przechodzi poza tradycyjne dopasowanie wzorców, aby zrozumieć linię danych i kontekst.

Co jest naprawdę potężne, to nasza redukcja szumu poprzez ciągłe uczenie. Nasz system rozumie zawartość i linię plików, uczy się z adnotacji i akcji użytkowników oraz identyfikuje bezpieczne przepływy pracy, aby stłumić niskie ryzyko aktywności. To dramatycznie zmniejsza fałszywe pozytywy w porównaniu z tradycyjnymi rozwiązaniami DLP. Wykonujemy również detekcję zagrożeń i priorytetyzowanie ryzyka w czasie rzeczywistym przy użyciu LLM, transformatorów i komputerowego widzenia, z niestandardowymi klasyfikatorami plików i wrażliwości, które mogą ujawnić ruch własności intelektualnej i dokumentów o wysokiej wartości, które idą znacznie poza proste reguły oparte na wykrywaniu jednostek. Nasi klienci mówią nam, że widzą tę transformację od zmęczenia alarmami do skupionych, wysoko wpływowych działań bezpieczeństwa.

Jak system wykrywania Nightfall opartego na przeglądarce i punkcie końcowym zapobiega wyciekowi przed jego wystąpieniem, i jak to się różni od tradycyjnych systemów DLP, które wykrywają naruszenia dopiero po wysłaniu?

Nasza rozszerzenie przeglądarki i agenci punktu końcowego skanują podpowiedzi i pliki przed ich wysłaniem. Możemy redagować lub blokować ryzykowną zawartość w czasie rzeczywistym – więc przed wysłaniem podpowiedzi ChatGPT, na przykład. Śledzimy również linię, aby zespoły bezpieczeństwa wiedziały, czy plik pochodzi z systemu korporacyjnego. Wdrożenie na macOS i Windows z rozszerzeniami Chrome i Firefox zapewnia tę funkcjonalność redagowania i blokowania przed wysłaniem. To dość wyraźny kontrast do tradycyjnego DLP, które jest głównie zajmowane wykrywaniem po fakcie.

Nightfall znacznie się rozwinął od swojego założenia. Jak ewoluowały potrzeby bezpieczeństwa przedsiębiorstw w tym czasie, i jak Twoje rozwiązanie dostosowało się do tego?

Krajobraz naprawdę się dramatycznie zmienił. Zaczynaliśmy od skanowania SaaS – myśl o Slacku i Google Drive – wokół 2020-2021. Następnie zapory Generative AI stały się kluczowe, zaczynając od 2023 roku, a teraz widzimy ten pilny potrzebę autonomicznej, inteligentnej prewencji zagrożeń, która może skalować się z rozwojem organizacji.

Zespoły operacji bezpieczeństwa walczą z coraz bardziej złożonymi narzędziami, tradycyjnymi rozwiązaniami DLP opartymi na dopasowaniu wzorców, stałym ręcznym dostosowywaniem polityk oraz zmęczeniem alarmami. Te problemy spowalniają dochodzenia, zwiększają nakłady i zmniejszają skuteczność bezpieczeństwa. Ewolucja naszego produktu śledziła ten przesuw od reaktywnych, ręcznych operacji do proaktywnych, inteligentnych automatyzacji. Ogłosiliśmy pokrycie Generative AI w 2023 roku, rozszerzyliśmy się do prewencji exfiltracji, szyfrowania i ochrony poczty e-mail w 2024 roku, a teraz z Nyx wprowadzamy to, co uważamy za następną erę agentycznej AI w ochronie danych – transformując zmęczenie alarmami w skupione, wysoko wpływowe działania bezpieczeństwa w całym SaaS, punktach końcowych i narzędziach AI.

Niedawno wprowadziłeś Nightfall Nyx, który opisujesz jako pierwszą autonomiczną platformę AI-natycznej DLP. Co ją czyni autonomiczną, i jakie problemy rozwiązuje to dla zespołów bezpieczeństwa?

Platforma wykrywania Nightfall AI dostarcza już bardzo dokładne, niskoszumowe wyniki – 95% precyzji w porównaniu z 5-30% typowymi dla tradycyjnych rozwiązań DLP opartych na regex lub regułach. Nyx jest warstwą inteligencji AI, która pomaga zespołom bezpieczeństwa w dochodzeniach, korelacji i zrozumieniu ryzyk.

Nawet po usunięciu szumu, prawdziwa praca zaczyna się. W dużych organizacjach, zespoły SecOps mogą nadal mieć do czynienia z setkami uzasadnionych alarmów każdego dnia. Przesiewanie ich, aby oddzielić zatwierdzone przepływy pracy od problemów z higieną danych lub zagrożeń wewnętrznych, może zająć godziny. Nyx podejmuje tę ciężką pracę dochodzeniową – przyspieszając analizę, aby zespoły mogły się skupić na działaniach, a nie na przeszukiwaniu i sortowaniu stron alarmów.

Nyx łączy punkty między zdarzeniami exfiltracji – użytkownikami, domenami, urządzeniami, typami danych, nazwami plików i więcej – ujawniając wzorce natychmiast. Za pomocą jej interfejsu w języku naturalnym, analitycy mogą działać na podstawie wzorców, badać wyniki, generować raporty i uzyskać zalecane działania w ciągu kilku sekund. Zadania, które wcześniej zajmowały dwie godziny, teraz mogą być wykonane w mniej niż dwie minuty – prawdziwy 20-krotny oszczędność czasu.

Czy z uwagi na wybuchowy wzrost użycia generatywnej AI w miejscach pracy i zmagania się zespołów bezpieczeństwa, aby nadążyć, uważasz, że narzędzia takie jak Nightfall staną się warstwą kontroli domyślnej dla środowisk przedsiębiorstw?

Myślę, że trajektoria wskazuje na tak. Widzimy powszechne plany wdrożenia Generative AI w przedsiębiorstwach, a główne platformy, takie jak Microsoft Entra Internet Access, wprowadzają kontrolę wstępną dla ruchu Generative AI. Kiedy połączymy to z konsensusem branżowym wokół ryzyka Cienia AI, jest rozsądnie oczekiwać, że kontrola przed wysłaniem, świadoma AI, stanie się warstwą kontroli domyślnej obok rzeczy takich jak zarządzanie tożsamością i dostępem oraz wykrywanie i odpowiedź na punkty końcowe.

Wreszcie, jako założyciel budujący w tak dynamicznie zmieniającym się środowisku, jaka jest Twoja długoterminowa wizja dla Nightfall i roli AI w ochronie danych przedsiębiorstw?

Nasza długoterminowa wizja opiera się na tym, co przedstawiliśmy przy uruchomieniu – być planem kontrolnym dla chmury danych – ale teraz rozszerzamy to o autonomiczne operacje i agentyczne możliwości AI. Wyobrażamy sobie przyszłość, w której postawa bezpieczeństwa poprawia się ciągle bez nakładania większej pracy na analityków, gdzie AI eliminuje potrzebę specjalistycznej wiedzy branżowej, i gdzie organizacje mogą przesunąć się od reaktywnych, ręcznych operacji bezpieczeństwa do proaktywnych, inteligentnych prewencji zagrożeń.

W praktyce oznacza to AI, które zarówno rozumie dane w kontekście, jak i podejmuje bezpieczne, inteligentne działania – dochodzenie, szkolenie, redagowanie, blokowanie – w całym SaaS, punktach końcowych, e-mailu i Cieniu AI. Chcemy zamknąć pętlę od wykrycia do prewencji, dając zespołom bezpieczeństwa zawsze włączonego, inteligentnego partnera, który staje się mądrzejszy z każdym dochodzeniem i transformuje tygodnie ręcznych dochodzeń w minuty skupionych reakcji.

Dziękuję za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Nightfall

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.