Intervjuer
Rohan Sathe, medgrundare och VD för Nightfall â Intervjuserie

By
Antoine Tardif, VD och grundare av Unite.AI
Rohan Sathe Àr medgrundare och VD för Nightfall AI. Innan han var med och grundade Nightfall ledde han backend-teamet pÄ Uber Eats, dÀr han byggde tillÀmpade maskininlÀrningstjÀnster som ETA-prognoser och utbuds- och efterfrÄgeprognoser. Han har medverkat som gÀst i CISO Series-podcasten och Artificial Intelligence Podcast, bland andra kanaler.
Night förhindrar datalÀckor med AI, automatiserar DLP (dataförlustförebyggande) över SaaS- och GenAI-appar, slutpunkter och webblÀsare. Den skannar kontinuerligt text och filer efter PII, PHI/PCI, hemligheter och inloggningsuppgifter; klassificerar innehÄll med ML; och tillÀmpar policyer i realtid. Integrationer inkluderar Slack, Google Drive, GitHub och e-post, med API:er/SDK:er för anpassade appar och LLM:er. à tgÀrderna omfattar bortredigering, karantÀn och borttagning, tillsammans med anvÀndarcoachning, incidentarbetsflöden och efterlevnadssupport.
Du och Isaac grundade Nightfall 2018 med övertygelsen att AI kunde göra DLP bÀttre, snabbare och mer tillgÀngligt för företag. Kan du berÀtta hur det dÀr grundandet sÄg ut och hur du kom fram till idén om en "AI-inbyggd DLP" frÄn dag ett?
I början ville vi anvÀnda maskininlÀrning för att upptÀcka och skydda kÀnslig data var den Àn finns i molnappar och moderna arbetsflöden. NÀr vi lÀmnade smygen 2019 positionerade vi oss som en molnbaserad, ML-driven SaaS DLP-lösning med visionen att bygga "kontrollplanet för molndata". NÀr vi expanderade bortom SaaS till att omfatta dataexfiltrering över endpoints och generativ AI, blev "AI-nativ DLP" vÄrt paraplybegrepp.
Innan du startade Nightfall var du en av grundarna och ingenjörerna pÄ Uber Eats, dÀr du sÄg pÄ nÀra hÄll hur data spreds över SaaS och molnverktyg. Hur formade dina erfarenheter dÀr ditt perspektiv pÄ datasÀkerhet, och vilka specifika ögonblick eller utmaningar vÀckte idén till Nightfall?
PĂ„ Uber Eats ledde jag backend-team och byggde tillĂ€mpade ML-tjĂ€nster â saker som berĂ€knade leveranstider och prognoser för utbud och efterfrĂ„gan. Vi hanterade petabytestora data spridd över mĂ„nga olika system, vilket Ă€r en miljö dĂ€r kĂ€nslig information kan röra sig vĂ€ldigt snabbt och ofta osynligt. Den erfarenheten, i kombination med vad hela branschen lĂ€rde sig av incidenter som Ubers intrĂ„ng 2016 â dĂ€r angripare i princip utnyttjade autentiseringsuppgifter som exponerades i kod pĂ„ GitHub för att nĂ„ AWS-data â belyste verkligen hur denna kombination av dataspridning, autentiseringsuppgifter och molninfrastruktur skapar denna överdimensionerade risk utan bĂ€ttre detektering och skyddsrĂ€cken. Dessa realiteter formade Nightfalls fokus pĂ„ kontextmedveten upptĂ€ckt och förebyggande redan frĂ„n början.
Nightfall lanserades offentligt 2019 med Serie A-finansiering. Kan du guida oss genom den tidiga resan frÄn stealth-lÀge till lansering, inklusive eventuella viktiga vÀndpunkter?
Vi arbetade i det hemliga i ungefÀr ett Är och lanserade sedan officiellt den 7 november 2019 med en finansiering pÄ 20.3 miljoner dollar ledd av Bain Capital Ventures och Venrock. De tidiga vÀndpunkterna kretsade egentligen kring att bygga breda SaaS-integrationer och utveckla en mer precis ML-baserad innehÄllsklassificering som kunde minska de falska positiva resultat som plÄgade Àldre DLP-lösningar.
Skugg-AI hÀnvisar till oövervakad anvÀndning av verktyg som ChatGPT, Gemini och Copilot pÄ arbetsplatsen, vilket ofta resulterar i osynliga datalÀckor. Hur definierar du Skugg-AI, och varför Àr det ett sÄ vÀxande problem för moderna organisationer?
Vi definierar skugg-AI som obehörig eller oövervakad anvĂ€ndning av AI-verktyg av anstĂ€llda â tĂ€nk pĂ„ att klistra in kĂ€llkod eller kunddata i chattrobotar â vilket skapar exponeringsrisker utanför IT-styrningen. Denna definition överensstĂ€mmer med vad vi ser frĂ„n andra aktörer i branschen som IBM och Splunk. Skugg-AI Ă€r i huvudsak AI som anvĂ€nds utan godkĂ€nnande eller tillsyn, vilket introducerar dessa blinda flĂ€ckar och potentiella risker för dataexfiltrering. Kombinationen av lĂ€ttanvĂ€nda generativa AI-appar och bristen pĂ„ ordentliga kontroller Ă€r anledningen till att detta problem vĂ€xer sĂ„ snabbt.
Du har beskrivit flera sĂ€tt som Nightfalls tillvĂ€gagĂ„ngssĂ€tt för Shadow AI skiljer sig frĂ„n traditionell DLP. Vilken av dessa funktioner â oavsett om det Ă€r kontextmedveten övervakning, dataavstamning eller blockering i realtid â har visat sig vara mest effektfull för dina kunder?
Av det vi konsekvent hör frĂ„n kunder finns det egentligen tvĂ„ huvudsakliga mekanismer som gör den största skillnaden. För det första Ă€r kontroller före inlĂ€mning â att faktiskt fĂ„nga upp kĂ€nsligt innehĂ„ll innan det skickas till AI-verktyg eller publiceras pĂ„ webben. För det andra Ă€r vĂ„r AI-baserade detektering som gĂ„r bortom matchning av Ă€ldre mönster för att förstĂ„ datahĂ€rkomst och sammanhang.
Det som Àr riktigt kraftfullt Àr vÄr brusreducering genom kontinuerligt lÀrande. VÄrt system förstÄr innehÄll och filhÀrkomst, lÀr sig av anvÀndaranteckningar och ÄtgÀrder och identifierar sÀkra arbetsflöden för att undertrycka aktivitet med lÄg risk. Detta minskar dramatiskt falska positiva resultat jÀmfört med Àldre DLP-lösningar. Vi gör ocksÄ realtidsdetektering av hot och riskprioritering med hjÀlp av LLM:er, transformatorer och datorseende, med anpassade fil- och kÀnslighetsklassificerare som kan avslöja förflyttning av immateriella rÀttigheter och vÀrdefulla dokument som gÄr lÄngt utöver enkel regelbaserad enhetsdetektering. VÄra kunder berÀttar för oss att de ser denna omvandling frÄn varningströtthet till fokuserade sÀkerhetsÄtgÀrder med stor inverkan.
Hur stoppar Nightfalls webblÀsarbaserade och endpoint-native detekteringssystem lÀckor innan de intrÀffar, och hur stÄr sig det i jÀmförelse med Àldre DLP-system som bara upptÀcker intrÄng efter att de har skickats in?
VĂ„ra webblĂ€sartillĂ€gg och slutpunktsagenter skannar faktiskt prompter och filer innan de skickas. Vi kan redigera eller blockera riskabelt innehĂ„ll i realtid â till exempel innan en ChatGPT-prompt skickas. Vi spĂ„rar ocksĂ„ hĂ€rstamning sĂ„ att sĂ€kerhetsteam vet om en fil har sitt ursprung i ett företagssystem. Vi driftsĂ€tter pĂ„ macOS och Windows med Chrome- och Firefox-tillĂ€gg som tillhandahĂ„ller denna funktion för redigering innan du skickar och blockering av uppladdning. Detta stĂ„r i skarp kontrast till Ă€ldre DLP, som frĂ€mst handlar om efterhandsdetektering.
Nightfall har expanderat avsevÀrt sedan starten. Hur har företagens sÀkerhetsbehov utvecklats under den tiden, och hur har er produkt anpassats som svar?
Landskapet har verkligen förĂ€ndrats dramatiskt. Vi började med SaaS-skanning â tĂ€nk Slack och Google Drive â runt 2020-2021. Sedan blev generativa AI-skyddsrĂ€cken avgörande frĂ„n och med 2023, och nu ser vi detta akuta behov av autonom, intelligent hotförebyggande Ă„tgĂ€rder som kan skalas upp i takt med organisationstillvĂ€xt.
SĂ€kerhetsteam kĂ€mpar med alltmer komplexa verktyg, Ă€ldre mönstermatchningsbaserad DLP, konstant manuell policyjustering och en förödande utmattning av larm. Dessa problem saktar ner utredningar, ökar omkostnaderna och minskar sĂ€kerhetseffektiviteten. VĂ„r produktutveckling har följt denna övergĂ„ng frĂ„n reaktiva och manuella operationer till proaktiv, intelligent automatisering. Vi tillkĂ€nnagav generativ AI-tĂ€ckning 2023, utökade till exfiltreringsförebyggande, kryptering och e-postskydd 2024, och nu med Nyx inleder vi vad vi ser som nĂ€sta era av agentbaserad AI inom dataskydd â att omvandla larmtrötthet till fokuserade, effektiva sĂ€kerhetsĂ„tgĂ€rder över SaaS, endpoints och AI-verktyg.
Ni introducerade nyligen Nightfall Nyx, som ni beskriver som branschens första autonoma AI-baserade DLP-plattform. Vad gör den autonom, och vilka problem löser det för sÀkerhetsteam?
Nightfalls AI-detekteringsplattform levererar redan mycket exakta resultat med lĂ„gt brus â 95 % precision jĂ€mfört med de 5â30 % som Ă€r typiska för traditionell regex eller regelbaserad DLP. OvanpĂ„ den grunden Ă€r Nyx AI-intelligensskiktet som hjĂ€lper sĂ€kerhetsteam att undersöka, korrelera och förstĂ„ risker.
Ăven efter att bruset Ă€r borta börjar det riktiga arbetet. I stora organisationer kan SecOps-team fortfarande möta hundratals legitima varningar varje dag. Att sĂ„lla igenom dem för att separera affĂ€rsgodkĂ€nda arbetsflöden frĂ„n riskabla datahygienproblem eller insiderhot kan ta timmar. Nyx tar sig an detta utredningsarbete â och accelererar analysen sĂ„ att teamen kan fokusera pĂ„ handling, inte att söka och sortera igenom sidor med varningar.
Nyx kopplar samman punkterna över exfiltreringshĂ€ndelser â anvĂ€ndare, domĂ€ner, enheter, datatyper, filnamn med mera â och visar mönster direkt. Genom sitt grĂ€nssnitt med naturligt sprĂ„k kan analytiker agera utifrĂ„n mönster, undersöka resultat, skapa rapporter och fĂ„ rekommenderade Ă„tgĂ€rder pĂ„ nĂ„gra sekunder. Uppgifter som en gĂ„ng tog tvĂ„ timmar kan nu utföras pĂ„ under tvĂ„ minuter â en verklig 20 gĂ„nger större tidsbesparing.
Med tanke pÄ att generativ AI-anvÀndning exploderar pÄ arbetsplatser och sÀkerhetsteam kÀmpar för att hÀnga med, tror du att verktyg som Nightfall kommer att bli ett standardlager för kontroll i företagsmiljöer?
Jag tror att utvecklingen tyder pÄ ja. Vi ser utbredda planer för generativ AI-implementering i företag, och stora plattformar som Microsoft Entra Internet Access lanserar inbyggda kontroller före inlÀmning för generativ AI-trafik. NÀr man kombinerar det med branschkonsensus kring risker med skugg-AI Àr det rimligt att förvÀnta sig att AI-medveten DLP före inlÀmning blir ett standardkontrolllager tillsammans med saker som identitets- och Ätkomsthantering samt slutpunktsidentifiering och -respons.
Slutligen, som grundare som bygger i en sÄ snabbt förÀnderlig marknad, vad Àr din lÄngsiktiga vision för Nightfall och AI:s roll i dataskydd för företag?
VĂ„r lĂ„ngsiktiga vision bygger pĂ„ vad vi formulerade vid lanseringen â att vara kontrollplanet för molndata â men nu utökar vi det med autonoma operationer och agentbaserade AI-funktioner. Vi ser en framtid dĂ€r sĂ€kerhetsstĂ€llningen kontinuerligt förbĂ€ttras utan att lĂ€gga mer arbete pĂ„ analytiker, dĂ€r AI eliminerar behovet av specialiserad domĂ€nexpertis och dĂ€r organisationer kan gĂ„ över frĂ„n reaktiva, manuella sĂ€kerhetsoperationer till proaktiv, intelligent hotförebyggande.
I praktiken innebĂ€r det AI som bĂ„de förstĂ„r data i sitt sammanhang och vidtar sĂ€kra, intelligenta Ă„tgĂ€rder â utreda, coacha, redigera, blockera â över SaaS, endpoints, e-post och Shadow AI. Vi vill sluta cirkeln frĂ„n upptĂ€ckt till förebyggande, vilket ger sĂ€kerhetsteam en stĂ€ndigt aktiv intelligent partner som blir smartare med varje utredning och omvandlar veckor av manuell forensisk undersökning till minuter av fokuserad respons.
Tack för den fina intervjun, lÀsare som vill veta mer bör besöka Night.
Antoine Àr en visionÀr ledare och grundande partner till Unite.AI, driven av en orubblig passion för att forma och frÀmja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika störande för samhÀllet som elektricitet, och fÄngas ofta pÄ att tjata om potentialen hos störande teknologier och AGI.
Som en futurist, Àr han dedikerad till att utforska hur dessa innovationer kommer att forma vÄr vÀrld. Dessutom Àr han grundare av Securities.io, en plattform fokuserad pÄ att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.
Du mÄ gilla
-
Mal Vivek, grundare och VD för zeb â Intervjuserie
-
Ronen Slavin, teknisk chef och medgrundare, Cycode â intervjuserie
-
Sebastian Enderlein, teknikchef pĂ„ DeepL â Intervjuserie
-
Alexey Kurov, produktchef och medgrundare av Zing Coach â Intervjuserie
-
Ryan Peterson, produktchef pĂ„ Concentrix â Intervjuserie
-
Sunil Padiyar, teknikchef pĂ„ Trintech â Intervjuserie