Wywiady
Mayank Kumar, Założyciel i Inżynier AI w DeepTempo – Seria Wywiadów

Mayank Kumar jest Założycielem i Inżynierem AI w DeepTempo, gdzie kieruje projektem i rozwojem podstawowego modelu języka logów (LogLM) firmy. Z silnym akademickim i badawczym tłem w generatywnym i multimodalnym AI, wnosi specjalistyczną wiedzę w tworzeniu modeli specyficznych dla danego obszaru, które zwiększają wykrywanie i reagowanie na zagrożenia w środowiskach cyberbezpieczeństwa.
DeepTempo to firma cyberbezpieczeństwa zbudowana wokół LogLM, AI-natywnego modelu podstawowego wyszkolonego na dużych zbiorach danych logów bezpieczeństwa. Platforma excels w identyfikowaniu zaawansowanych, wcześniej niewidzianych zagrożeń, jednocześnie minimalizując fałszywe pozytywy. Zaprojektowana do bezproblemowej integracji z istniejącymi workflow bezpieczeństwa, DeepTempo wspiera wdrożenia w datalakach, Kubernetes i Snowflake, umożliwiając szybsze forensics, zmniejszone koszty ingestii danych i skalowalną, zautomatyzowaną obronę dla nowoczesnych przedsiębiorstw.
Czy mogłbyś powiedzieć, co skłoniło Cię do współzałożenia DeepTempo, i jak Twoje tło w akademickich badaniach i open-source AI przyczyniło się do kierunku firmy?
Wyrastałem w środowisku, w którym relacje były budowane twarzą w twarz, a nie za pomocą ekranów. Mój ojciec, nauczyciel, wpoił mi wagę dawania. Chociaż nie byliśmy bogaci w materialny sens, byliśmy bogaci w połączenie i cel. W tym rodzaju środowisku szybko się uczysz, że rozwiązywanie problemów nie jest tylko kwestią indywidualnego talentu – jest to kwestia zbiorowej siły. Ta mentalność pozostała ze mną i ostatecznie doprowadziła mnie do zainteresowania przedsiębiorczością społeczną podczas studiów inżynierskich na IIT Ropar.
Punkt zwrotny nastąpił, gdy przeglądarka mojego ojca została zaatakowana przez ransomware. Nie było to tylko techniczne zawieszenie – wprowadziło strach, zamieszanie i podatność do naszego domu. To doświadczenie otworzyło mi oczy na to, jak kruchy jest cyfrowy świat, nie tylko dla osób, ale także dla organizacji, które są ciągle zagrożone. Wokół tego czasu spotkałem Evana, którego wizja budowy kolektywnej obrony na skalę internetu głęboko rezonowała ze mną. To wspólne posłannictwo – i moja motywacja do zastosowania technologii w służbie ludzi – to, co przyciągnęło mnie do DeepTempo.
Na Uniwersytecie w Waszyngtonie moje badania koncentrowały się na dwóch podstawowych obszarach: multimodalnym uczeniu reprezentacji i danych AI. Oba okazały się kluczowe podczas budowy naszego pionierskiego modelu LogLM. W przeciwieństwie do języka naturalnego, logi bezpieczeństwa są brudne, ustrukturyzowane i fragmentowane. Naszym pierwszym wyzwaniem było zbudowanie nowego “języka”, aby zinterpretować te dane, umożliwiając LogLM naukę znaczących reprezentacji z tych sekwencji. Zainwestowaliśmy również znacznie w to, jak oceniamy wydajność, ponieważ w bezpieczeństwie dokładność nie jest opcjonalna, a halucynacje nie są akceptowalne.
Ale poza technologią naszą gwiazdą północy zawsze było kolektywne bezpieczeństwo. Dlatego współpraca open-source będzie niezbędna do osiągnięcia tego celu na dużą skalę.
Pojęcie “kolektywnej obrony” jest centralne dla DeepTempo. Co to oznacza w praktyce, i jak różni się od tradycyjnych podejść do bezpieczeństwa?
W praktyce kolektywna obrona oznacza, że gdy jeden z klientów LogLM identyfikuje nowe zachowanie ataku, powiedzmy, kampanię C2 i exfiltracji z beaconingiem i niezwykłym transferem danych, ta wiedza może być destylowana w ogólny sygnaturę behawioralną i udostępniana w całym ekosystemie. Co ważne, nie obejmuje to wysyłania surowych logów lub danych klienta. Zamiast tego abstrahujemy wysokowydajne wzorce behawioralne i włączamy je do wag modelu za pomocą techniki federated learning.
To jest wyraźny kontrast do systemów legacy, które polegają na regułach lub statycznych feedach informacji o zagrożeniach. Te systemy nie ewoluują, dopóki wiele ofiar nie zostanie dotkniętych. Z kolektywną obroną system wykrywania ewoluuje z każdym wysokiej jakości sygnałem, nawet jeśli zagrożenie jest hiper-specyficzne dla jednego środowiska. Pozwala nam to na wykrywanie polimorficznych zagrożeń i LLM-wzmocnionych ataków agentywnych, zanim staną się powszechne.
Jakie konkretnie luki w bezpieczeństwie przedsiębiorstw spowodowały rozwój LogLM, i jak on fundamentalnie różni się od starszych systemów wykrywania?
Zespoły bezpieczeństwa przedsiębiorstw stają w obliczu trzech głównych problemów: wysokiego stosunku szumu do sygnału, kruchych wykryć, które nie przenoszą się między środowiskami, oraz powolnej adaptacji do nowych zagrożeń. LogLM został stworzony, aby rozwiązać wszystkie trzy.
Większość istniejących systemów opiera się na podejściach opartych na regułach lub wąskich podejściach ML, które wymagają tygodni lub miesięcy dostosowywania, aby zrozumieć nowe środowisko. Te podejścia zawodzą, gdy atakujący nieznacznie zmieniają taktykę, jak widzieliśmy w przypadku grup takich jak Scattered Spider lub Volt Typhoon. LogLM jest szkolony na dużych ilościach danych telemetrycznych, traktując je jako rodzaj ustrukturyzowanego języka. Pozwala mu to rozpoznać złożone sekwencje, takie jak nagły wzrost nieudanych połączeń, modyfikacja kluczy rejestru i niezwykły ruch wychodzący, nie jako izolowane anomalie, ale jako część narracji zagrożenia.
W przeciwieństwie do narzędzi legacy, które produkują rozłączone alerty, LogLM produkuje wykrycia na poziomie taktyki, które są interpretowalne. A ponieważ jest zbudowany od podstaw, a nie przerobiony lub zaadaptowany, jest zaprojektowany z myślą o bezpieczeństwie od samego początku, umożliwiając szybką adaptację już po kilku dniach nieoznaczonych logów. To sprawia, że wdrożenie jest szybkie, a wykrywanie znacznie bardziej odporne.
Co to są agenci cieni, i jak stanowią one zagrożenie dla organizacji działających bez scentralizowanej nadzoru?
Agenci cieni to autonomiczne narzędzia AI, często zbudowane na podstawie LLM, które działają w ramach przedsiębiorstwa bez jawnej autoryzacji lub widoczności ze strony zespołu bezpieczeństwa. Ostatni przykład to CVE-2025-32711 (“EchoLeak”) – zero-click vulnerability w Microsoft 365 Copilot wywołany prośbą o podsumowanie e-maili. Wada pozwala atakującym na wyciek wewnętrznych danych za pomocą kontekstu agenta RAG, bez wymagania interakcji użytkownika. Chociaż te agenci mogą zwiększyć produktywność, często omijają przegląd bezpieczeństwa i narażają wrażliwe dane na niekontrolowane warstwy inferencyjne.
Zobaczyliśmy przypadki, w których agent cieni zbudowany z publicznego LLM był narażony na logi systemowe i zaczął przeciekać ślady stosu zawierające zakodowane poświadczenia. Te agenci zwykle nie są instrumentowane kontrolami DLP, nie przestrzegają polityk dostępu i nie są audytowane. Co gorsza, ponieważ mogą podejmować decyzje, takie jak przekazywanie danych do zewnętrznych systemów, stają się one samymi powierzchniami ataku. W kontekście wstrzyknięcia podpowiedzi lub łańcuchowych ataków jeden agent może być zmuszony do wywołania działań o realnym wpływie.
Dlaczego wstrzyknięcie podpowiedzi i manipulacja modelem stają się poważnymi zagrożeniami, i dlaczego większość obecnych systemów ich nie wykrywa?
Wstrzyknięcie podpowiedzi jest niebezpieczne, ponieważ wykorzystuje podstawową funkcjonalność modelu: interpretację języka naturalnego. Większość systemów przedsiębiorstw traktuje dane wyjściowe modelu jako godne zaufania, ale jeśli model otrzyma ukryte instrukcje, osadzone w komentarzu użytkownika, wywołaniu API lub nawet nazwie pliku, może być oszukany, aby wykonał niezamierzone działania. Widzieliśmy, jak atakujący używają tego, aby pobrać poświadczenia z historii czatu, podszyć się pod użytkowników lub ominąć walidację danych wejściowych.
Głębszym problemem jest to, że LLM są zoptymalizowane pod kątem spójności, a nie bezpieczeństwa. Jak odkryliśmy w naszej niedawnej odpowiedzi na badanie Royal Society, modele priorytetowo traktują płynność i ogólność nad ostrożność i precyzję. Nawet nakazanie im “być bardziej dokładnym” może odwrócić się, prowadząc do bardziej pewnych, ale nadal niepoprawnych, odpowiedzi. A manipulacja modelem przez atakujących jest długoterminową troską. Atakujący mogą zatrutyć zbiory danych lub delikatnie kształtować dane wyjściowe, powtarzając ustrukturyzowane zapytania w czasie, stopniowo przesuwając model do bardziej perwazyjnego zachowania. Wykrywanie wymaga pełnej rejestracji łańcucha, ciągłej oceny i piaskownic modelu, techniki, które większość systemów przedsiębiorstw jeszcze nie przyjęła.
Jak DeepTempo wykorzystuje mapowania MITRE ATT&CK, aby dostarczać działania wywiadowcze, a nie tylko surowe alerty?
DeepTempo mapuje swoje wykrycia na taktyki i techniki ATT&CK za pomocą nadzorowanych klasyfikatorów i łańcuchów behawioralnych. Gdy system widzi sekwencję, taki jak podejrzane wykonanie programu PowerShell, modyfikacja klucza rejestru i niezwykły ruch wychodzący, nie tylko alarmuje o każdym kroku, ale oznacza sekwencję jako Wykonanie > Uniknięcie Obrony > Wyciek, dopasowując znane ID ATT&CK.
Pozwala to obrońcom natychmiast zrozumieć cel atakującego i gdzie są w łańcuchu zabójstwa. Dostarczamy również wzbogacenie: dotknięte jednostki, powiązane logi i oceny ufności. To ustrukturyzowane podejście redukuje obciążenie poznawcze dla analityków SOC i przyspiesza workflow odpowiedzi, zespoły wiedzą, jaka taktyka została użyta, co do niej doprowadziło i co najprawdopodobniej nastąpi jako następny krok. To znaczny skok od systemów znużenia alarmami, które strzelają na każdą anomalie bez narracyjnego kontekstu.
Dlaczego DeepTempo działa na poziomie wyższym niż systemy SIEM (Security Information and Event Management), i jak to położenie zwiększa wykrywanie zagrożeń i upraszcza operacje dla zespołów bezpieczeństwa?
Systemy SIEM mają tendencję do normalizowania i filtrowania logów, aby zmniejszyć koszty ingestii. Ale robiąc to, często tracą cenne konteksty, takie jak dokładne znaczniki czasu, spięcia opóźnień lub efemeryczne zachowania sesji. DeepTempo działa na poziomie wyższym, konsumując surowe dane telemetryczne przed tą transformacją. Pozwala to na modelowanie bogatszych wzorców behawioralnych, takich jak ponowne użycie tokenów usługi z lekkimi zmianami czasowymi lub rzadkimi sekwencjami wywołań API, które nigdy nie przekroczą progów SIEM.
Działanie na poziomie wyższym oznacza również, że możemy zmniejszyć szum, zanim kiedykolwiek dotrze do SIEM. Zamiast przesyłać petabajty logów dziennie, przekazujemy 50-100 zdarzeń o wysokim kontekście z pełnym wzbogaceniem ATT&CK i oceną modelu. Zespoły spędzają mniej czasu na triażu i więcej czasu na badaniu zagrożeń, które mają znaczenie. To również obniża koszty magazynowania i obliczeniowych SIEM, które mogą być znaczne w dużych środowiskach.
Co pozwala Tempo na szybkie dostosowanie modeli do nowych środowisk, i jak to porównuje się do tradycyjnych przepływów pracy ML?
Tradycyjne systemy ML często wymagają tygodni oznaczonych danych i ponownego szkolenia, aby dostosować się do nowego środowiska. Tempo stosuje fundamentalnie odmienny podejście. Zamiast zaczynać od zera, wykorzystuje pre-trenowany model zbudowany na dużych, rzeczywistych danych telemetrycznych sieci, takich jak NetFlow i VPC flow data. To daje mu silne zrozumienie, jak ruch i zachowania zwykle wyglądają w różnych środowiskach.
Gdy Tempo jest wdrożone w nowym środowisku, nie potrzebuje oznaczonych danych ani długich cykli uczenia. Używa tylko kilku dni lokalnej aktywności sieciowej, aby ustalić bazę i dostosować się do wykrywania wzorców specyficznych dla tego środowiska, takich jak niezwykły dostęp poza godzinami, anomalie komunikacji usługi do usługi lub nieoczekiwany ruch danych. To dzieje się w godziny, a nie tygodnie.
Ponieważ proces jest samonadzorowany, nie ma potrzeby, aby zespoły bezpieczeństwa ręcznie flagować lub oznaczać zdarzenia. A aby pozostać aktualnym, gdy środowiska ewoluują, zbudowaliśmy mechanizmy migawek, które pozwalają modelowi “zapomnieć” przestarzałe zachowania, gdy infrastruktura lub polityki się zmieniają. Działanie na poziomie warstwy sieciowej pozwala nam wykrywać zagrożenia wcześniej i szerzej, co odróżnia Tempo od tradycyjnych narzędzi zabezpieczeń ukierunkowanych na punkt końcowy lub logi.
Jak DeepTempo utrzymuje wysoką dokładność, jednocześnie minimalizując fałszywe pozytywy, szczególnie w dynamicznych środowiskach chmurowych?
Łączymy modelowanie czasowe z analizą zachowania sieci w kontekście, zbudowaną bezpośrednio na logach NetFlow i VPC flow. Nasze szlachetne podejście do generacji sekwencji w połączeniu z dużą pre-trenowaniem algorytmów głębokiego uczenia opartych na transformatorach pomaga w zrozumieniu, jak zdarzenia sieciowe rozwijają się w czasie. Nie flagujemy pojedynczego nieudanego logowania, ale flagujemy nieudane logowanie, po którym następuje pomyślne logowanie z nowego urządzenia, ruch boczny i niezwykły dostęp do danych. To warstwowe kontekst czasowy filtruje szum i podkreśla prawdziwe i nowe zagrożenia.
Po drugie, profilujemy zachowania użytkowników i usług w kontekście. Węzły Kubernetes ponownie uruchamiane 12 razy są normalne podczas aktualizacji, ale podejrzane o 2 nad ranem, jeśli są następnie wdrożone nowe kontenery z nieznanego rejestru. Tempo rozpoznaje to, ponieważ patrzy na sekwencję, czas i kontekst jednocześnie. Dodatkowo nasz aktywny potok uczenia się aktywnie monitoruje i gromadzi informacje o konkretnych stylach wykrywania. Jeśli potok wykryje dryf w wydajności lub danych, wykorzysta migawki i informacje zwrotne od analityków, aby dostosować niewielką liczbę parametrów modelu.
Budujemy nasze wykrywanie na surowych, wysokiej wierności metadanych sieciowych, łącząc inteligencję czasową z bazowaniem behawioralnym, aby dostarczyć alerty o wysokiej ufności – nawet w środowiskach chmurowych, które zmieniają się w mgnieniu oka.
Jaka jest rola wyjaśnialności w Twoim systemie, i jak zapewniasz, że alerty przychodzą z użytecznym, interpretowalnym kontekstem?
Każde wykrycie w Tempo zawiera podsumowanie, podstawowe dowody logowe i wnioskowaną taktykę (np. Dostęp do poświadczeń za pomocą siły). Dostarczamy również graf powiązanych jednostek, użytkowników, punktów końcowych, zasobów chmurowych, aby zespoły SOC mogły wizualizować incydent. Celem jest wyeliminowanie “czarnej skrzynki”, która dotyka wiele systemów AI.
Zaczerpnęliśmy z akademickich narzędzi wyjaśnialności, takich jak LIME i SHAP, we wczesnych prototypach, ale stwierdziliśmy, że nie są one intuicyjne dla analityków. Zamiast tego generujemy narrację w języku potocznym: co się stało, kiedy, dlaczego jest to podejrzane i jak ufny jesteśmy. To nie tylko kwestia przejrzystości, ale także umożliwienia analitykom pierwszego poziomu działania bez eskalacji każdego alarmu.
Jakie są długoterminowe ryzyka atakujących, którzy sami wykorzystują AI i modele podstawowe, i jak DeepTempo planuje pozostać na czele?
Krajobraz zagrożeń wkracza w fazę, w której atakujący mogą wdrożyć agenty AI, które uczą się samodzielnie, mutują ładunki na fly i symulują zachowania użytkowników. Agenci ci mogą działać 24/7, sondując słabe punkty, adaptując się przy każdej nieudanej próbie. To jest fundamentalna zmiana – nie chodzi już o zero-day, ale o prędkość, iterację i zaciemnienie.
Przygotowujemy się do tego, inwestując w trening adversarial, wykrywanie na poziomie wyższym i modelowanie behawioralne, które nie polega na znanych wskaźnikach. Naszym celem jest identyfikacja struktury zachowania malwersatywnego, zanim eskaluje. Badamy również sposoby odciskania ruchu atakującego wygenerowanego przez AI, tak jak kiedyś odciskaliśmy botnety, aby obrońcy mogli flagować działanie, nawet gdy ładunki zmieniają się stale.
Dziękujemy za wspaniały wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić DeepTempo.












