Intervjuer
Mayank Kumar, Founding AI Engineer at DeepTempo – Intervju-serie

Mayank Kumar er Founding AI Engineer i DeepTempo, der han leder design og utvikling av selskapets grunnleggende Log Language Model (LogLM). Med en sterk akademisk og forskningsbakgrunn innen generativ og multimodal AI, bringer han spesialisert ekspertise til å bygge domenespesifikke modeller som forbedrer trusseldeteksjon og respons i cybersikkerhetsmiljøer.
DeepTempo er et cybersikkerhetsselskap bygget rundt LogLM, et AI-nativt grunnmodell trent på stor skala sikkerhetsloggdata. Plattformen excellerer i å identifisere avanserte, tidligere usett trusler samtidig som den minimerer falske positiver. Designet for å kunne integreres sømløst i eksisterende sikkerhetsarbeidsflyter, støtter DeepTempo deployeringer på tvers av datalaker, Kubernetes og Snowflake, og muliggjør raskere forensikk, reduserte datainntakskostnader og skalerbar, automatisert forsvar for moderne bedrifter.
Hva ledet deg til å co-etablere DeepTempo, og hvordan bidro din bakgrunn i akademisk forskning og åpen kildekode-AI til selskapets retning?
Jeg vokste opp i en tettknyttet samfunn der relasjoner ble bygget ansikt til ansikt, ikke gjennom skjermer. Min far, en lærer, innprentet meg viktigheten av å gi tilbake. Mens vi ikke var rike på materiell måte, var vi rike på tilknytning og formål. I en slik miljø, lærer du raskt at å løse problemer ikke bare handler om individuell talent – det handler om kollektiv styrke. Denne holdningen ble hos meg og ledet til slutt til min interesse for sosialt entreprenørskap mens jeg studerte ingeniørvitenskap ved IIT Ropar.
Vendepunktet kom da min fars nettleser ble rammet av en ransomware-angrep. Det var ikke bare en teknisk feil, det innførte frykt, forvirring og sårbarhet i vårt hjem. Denne erfaringen åpnet mine øyne for hvor skjør den digitale verden er, ikke bare for enkeltpersoner, men for organisasjoner som konstant er under trussel. Rundt den tiden møtte jeg Evan, hvis visjon for å bygge kollektivt forsvar på internett-skala resonerte dypere med meg. Denne felles misjonen – og min drive til å bruke teknologi i tjeneste for mennesker – er det som trakk meg til DeepTempo.
Ved University of Washington, fokuserte min forskning på to kjerneområder: multimodal representasjonslæring og data-sentrert AI. Begge viste seg å være kritiske da vi bygde vår vertikale grunnmodell, LogLM. I motsetning til naturlig språk, er sikkerhetslogger urene, strukturerte og fragmenterte. Vår første utfordring var å konstruere et nytt “språk” for å tolke denne dataen, og å aktivere LogLM til å lære meningsfulle representasjoner fra disse sekvensene. Vi har også investert tungt i hvordan vi vurderer ytelse, fordi i sikkerhet, er nøyaktighet ikke valgfritt, og hallucinasjoner er ikke akseptable.
Men utover teknologien, har vår nordstjerne alltid vært kollektivt forsvar. Derfor vil åpen kildekode-samarbeid være essensielt for å gjøre denne misjonen vellykket i skala.
Begrepet “kollektivt forsvar” er sentralt i DeepTempo. Hva betyr det i praksis, og hvordan er det forskjellig fra tradisjonelle tilnærminger til cybersikkerhet?
I praksis betyr kollektivt forsvar at når en kundes instans av LogLM identifiserer en ny angrepsatferd, for eksempel en staget C2 og eksfiltreringskampanje som involverer beaconing-atferd fulgt av abnormal utgående dataoverføring, kan denne innsikten destilleres til en generalisert atferdsmønster og deles på tvers av økosystemet. Kritisk er at dette ikke innebærer å sende rå logger eller kundedata. I stedet abstraherer vi høykonfidensielle atferdsmønster og inkorporerer dem i modellvekter gjennom fødererte læringsmetoder.
Dette er en skarp kontrast til legacy-systemer som avhenger av enten en-størrelse-til-alle-regler eller statiske trussel-intelligens-kanaler. Disse systemene utvikler seg ikke før flere ofre er berørt. Med kollektivt forsvar, utvikler deteksjonssystemet seg med hver høykvalitets-signal, selv om trusselen er hyper-spesifik for én miljø. Dette lar oss fange polymorfe trusler og LLM-forbedrede agente angrepsstrømmer før de blir utbredt.
Hva var de spesifikke gapene i bedriftssikkerhet som ledet til utviklingen av LogLM, og hvordan skiller det seg fundamentalt fra eldre deteksjonssystemer?
Bedriftssikkerhetsteamene møter tre store problemer: høyt støy-til-signal-forhold, skjøre deteksjoner som ikke overføres mellom miljøer, og langsom tilpasning til nye trusler. LogLM ble skapt for å løse alle tre.
De fleste eksisterende systemene avhenger av regelbaserte eller smale ML-tilnærminger som krever uker eller måneder med finjustering for å forstå et nytt miljø. Disse tilnærminger feiler når angripere endrer taktikk, som vi har sett med grupper som Scattered Spider eller Volt Typhoon. LogLM er trent på store volumer av sikkerhetstelemetri, og behandler det som en type strukturert språk. Dette lar det gjenkjenne komplekse sekvenser, som en økning i utgående DNS-forespørsler fulgt av uvanlig Okta-aktivitet, ikke som isolerte anomalier, men som en del av en trussel-narrativ.
I motsetning til legacy-verktøy som produserer separate varsler, produserer LogLM tolkbare, taktiske deteksjoner. Og fordi det er bygget fra bunnen av, i stedet for å være ombygget eller tilpasset, er det designet for sikkerhet fra grunnen av, og muliggjør rask tilpasning med bare noen få dagers umerkede logger. Dette gjør påmelding rask og deteksjon mye mer motstandsdyktig.
Hva er skyggeagenter, og hvordan utgjør de en risiko for organisasjoner som opererer uten sentral tilsyn?
Skyggeagenter er autonome AI-verktøy, ofte bygget på toppen av LLM-er, som opererer innen en bedrift uten eksplisitt autorisasjon eller synlighet fra sikkerhetsteamet. Et nylig eksempel er MITREs CVE-2025-32711 (“EchoLeak”), en zero-click-sårbarhet i Microsoft 365 Copilot utløst av å be det om å sammenfatte e-poster. Feilen lar angripere eksfiltrere interne data via agentens RAG-kontekst, uten noen brukerinteraksjon. Mens disse agentene kan øke produktiviteten, går de ofte utenom sikkerhetsgjennomgang og eksponerer følsomme data til ukontrollerte inferenslag.
Vi har sett tilfeller hvor en skyggeagent bygget med en offentlig LLM ble eksponert for systemlogger og begynte å lekke stack-sporene som inneholdt hardkodede legitimasjoner. Disse agentene er vanligvis ikke instrumentert med DLP-kontroller, følger ikke tilgangspolitikk, og blir ikke audittert. Verre, fordi de kan ta beslutninger, som å videreformidle utdata til eksterne systemer, blir de selv angrepsflater. I sammenheng med prompt-injeksjon eller adversarial-kjeding, kan en enkelt agent bli tvunget til å utløse nedstrøms-handlinger med reell innvirkning.
Hvorfor blir prompt-injeksjon og modellmanipulering alvorlige trusler, og hvorfor fanger de fleste nåværende systemer dem ikke?
Prompt-injeksjon er farlig fordi det utnytter modellens kjernefunksjonalitet: å tolke naturlig språk. De fleste bedriftssystemer behandler modellutdata som pålitelige, men hvis modellen mottar skjulte instruksjoner, innbettet i en brukerkommentar, API-kall eller selv et filnavn, kan den bli lurt til å utføre uventede handlinger. Vi har sett angripere bruke dette til å hente ut legitimasjoner fra chatsammenhenger, etterligne brukere eller omgå inndata-validering.
Det dypereliggende problemet er at LLM-er er optimert for kohesjon, ikke sikkerhet. Som vi utforsket i vår nylige respons til Royal Societys studie, prioriterer modellene flyt og generalitet over forsiktighet og presisjon. Selv å instruere dem til å “være mer nøyaktige” kan backfire, og føre til mer selvbevisste, men likevel feilaktige, svar. Og adversarial modellmanipulering er en langvarig bekymring. Angripere kan forgifte datasamlinger eller subtilt forme utdata ved å gjenta strukturerte forespørsler over tid, og gradvis skyve modellen mot et mer permissivt atferdsmønster. Deteksjon her krever full-kjede-logging, kontinuerlig vurdering og modell-lag-sandboxing, tekniker som de fleste bedriftssystemer ennå ikke har adoptert.
Hvordan bruker Tempo MITRE ATT&CK-mappinger for å levere handlebare etterretninger i stedet for bare rå varsler?
Tempo kartlegger sine deteksjoner til ATT&CK-taktikker og -teknikker ved hjelp av både overvåkede klassifiserere og uovervåkede atferdskjeding. Når systemet ser en sekvens som mistenkelig PowerShell-utførelse, registernøkkel-modifisering og uvanlig utgående trafikk, varsler det ikke bare på hvert steg, men merker sekvensen som Utførelse > Forsvarsevasjon > Eksfiltrering, som matcher kjente ATT&CK-ID-er.
Dette lar forsvarerne umiddelbart forstå angriperens mål og hvor de er i drapskjeden. Vi tilbyr også berikelse: berørte enheter, relaterte logger og konfidenspoeng. Denne strukturerte tilnærmingen reduserer kognitivt arbeid for SOC-analytikere og akselererer respons-arbeidsflyter, teamene vet hva taktikken var, hva som ledet til den, og hva neste steg sannsynligvis er. Dette er et stort sprang fra varslingssystemer som avfyrer på hver anomali uten narrativ kontekst.
Hvorfor opererer DeepTempo oppstrøms av SIEM (Sikkerhetsinformasjon og Hendelsesstyring)-systemer, og hvordan forbedrer denne posisjonen trusseldeteksjon og strømlinjeformer drift for sikkerhetsteam?
SIEM-er tenderer til å normalisere og filtre logger for å redusere inntakskostnader. Men ved å gjøre dette, mister de ofte verdifull kontekst, som nøyaktige tidsstempel, forsinkelsesspor eller efemære sesjonsatferd. DeepTempo opererer oppstrøms, inntar rå telemetri før denne transformasjonen. Dette lar oss modellere rikere atferdsmønster, som tjenestetoken-gjenbruk med små tidsvariasjoner eller sjeldne API-kallsekvenser som aldri ville nå SIEM-terskler.
Å arbeide oppstrøms betyr også at vi kan redusere støy før den noen gang når SIEM. I stedet for å skyve petabytes med logglinjer per dag, sender vi bare 50-100 høykontekst-hendelser med full ATT&CK-berikelse og modellbasert scoring. Teamene bruker mindre tid på å triage og mer tid på å undersøke trusler som betyr noe. Dette reduserer også SIEM-lagring og beregningskostnader, som kan være betydelige i store miljøer.
Hva muliggjør Tempo å finjustere modeller til nye miljøer så raskt, og hvordan sammenlignes dette med tradisjonelle maskinlærings-arbeidsflyter?
Tradisjonelle ML-systemer krever ofte uker med merket data og om-trening for å tilpasse seg et nytt miljø. Tempo tar en fundamentalt annen tilnærmning. I stedet for å starte fra scratch, utnytter det en forhåndstrengt modell bygget på stor skala, virkelig verdens nettverkstelemetri, som NetFlow og VPC-flytdata. Dette gir det en sterk forståelse av hvordan trafikk flyter og atferd vanligvis ser ut på tvers av diverse miljøer.
Når Tempo deployeres i en ny innstilling, trenger det ikke merket data eller lange læringscykler. Det bruker bare noen få dagers lokal nettverksaktivitet til å etablere en baseline og finjustere seg selv til å detektere mønster spesifikke for det miljøet, som uvanlig utenom-arbeidstid-tilgang, tjeneste-til-tjeneste-kommunikasjonsanomalier eller uventet data-bevegelser. Dette skjer på timer, ikke uker.
Fordi prosessen er selv-overvåket, er det ingen behov for sikkerhetsteamene til å manuelt flagge eller merke hendelser. Og for å forbli aktuell når miljøer utvikler seg, har vi bygget inn snapshot-mekanismer som lar modellen “glemme” foreldede atferd når infrastruktur eller politikker endres. Å operere på nettverkslaget lar oss detektere trusler tidligere og bredere, noe som skiller Tempo fra tradisjonelle endpoint- eller loggsentriske sikkerhetsverktøy.
Hvordan opprettholder DeepTempo høy nøyaktighet samtidig som det minimerer falske positiver, spesielt i dynamiske sky-miljøer?
Vi kombinerer tidsmodellering med kontekst-bevisst nettverksatferdsanalyse, bygget direkte på NetFlow og VPC-flytlogger. Vår edle sekvens-genereringsmetode kombinert med stor skala forhåndstrening av transformer-basert dyp læringsalgoritmer, hjelper med å forstå hvordan nettverkshendelser utvikler seg over tid. Vi flagger ikke bare en enkelt feillogginn, men vi flagger en feillogginn fulgt av en vellykket logginn fra en ny enhet, lateral bevegelse og uvanlig data-tilgang. Denne lagdelte tids-konteksten filterer ut støyen og fremhever virkelige og nye trusler.
For det andre profilerer vi bruker- og tjenesteatferd i kontekst. En Kubernetes-node som starter om 12 ganger er normalt under oppdateringer, men mistenkelig klokken 02.00 om natten hvis det følges av en ny container-deploy fra en ukjent registry. Tempo gjenkjenner dette fordi det ser på sekvens, tid og kontekst samtidig. Og vår aktive lærings-pipeline overvåker og samler informasjon om spesifikke detekterings-stiler. Hvis pipelineen detekterer drift i ytelse eller data, vil den bruke snapshots og tilbakemeldinger fra analytikere til å finjustere et fåtall parametre i modellen.
Vi bygger vår deteksjon på rå, høytroverdig nettverksmetadata, kombinert med tids-intelligens og atferds-baselinje for å levere høykonfidensielle varsler – selv i sky-miljøer som endrer seg i blinken av et øye.
Hva er rollen til forklarbarhet i deres system, og hvordan sikrer de at varsler kommer med brukbar, tolkbar kontekst?
Hvert varsel i Tempo inkluderer en sammenfatting, underliggende logg-bevis og antatt taktikk (for eksempel, Legitimasjons-tilgang via Brute Force). Vi tilbyr også en graf over relaterte enheter, brukere, endepunkter, skytjenester, så SOC-teamene kan visualisere hendelsen. Målet er å eliminere “black box”-effekten som plager mange AI-systemer.
Vi lånte fra akademiske forklarbarhets-verktøy som LIME og SHAP i tidlige prototyper, men fant at de ikke var intuitive for analytikere. I stedet genererer vi en ren språk-narrativ: hva skjedde, når, hvorfor det er mistenkelig, og hvor konfidert vi er. Dette handler ikke bare om klarhet, men om å aktivere tier-en-analytikere til å handle uten å eskalere hver varsel.
Hva er de langvarige risikoene med at angripere bruker AI og grunnmodeller selv, og hvordan planlegger DeepTempo å forbli foran?
Trussellandskapet går inn i en fase der angripere kan deployere AI-agenter som selv-lærer, muterer payload på fly, og simulerer legitim bruker-atferd. Disse agentene kan kjøre 24/7, sondering etter svake punkter, tilpasse seg med hver mislykket forsøk. Dette er en fundamental endring – det handler ikke lenger om zero-dager, men om hastighet, iterasjon og kamuflasje.
Vi forbereder oss ved å investere i adversarial-trening, oppstrøms-deteksjon og atferdsmodellering som ikke avhenger av kjente indikatorer. Vårt mål er å identifisere strukturen til skadelig atferd før det eskalerer. Vi utforsker også måter å fingeravtrykke AI-generert angriper-trafikk, slik vi en gang fingeravtrykket botneter, så forsvarere kan flagge aktivitet selv når payloader endrer seg konstant.
Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke DeepTempo.












