Connect with us

Intervjuer

Rohan Sathe, medgrunnlegger og CEO av Nightfall – Intervju-serie

mm

Rohan Sathe er medgrunnlegger og CEO av Nightfall AI. Før han grunnla Nightfall, ledet han backend-teamet i Uber Eats, og bygget anvendt maskinlæringstjenester som ETA-prediksjon og etterspørselsprognose. Han har vært gjest på CISO Series-podcasten og Artificial Intelligence Podcast, blant andre.

Nightfall forhindrer datalekkasjer med AI, og automatiserer DLP (datalekkasjeforhindring) på tvers av SaaS og GenAI-applikasjoner, sluttpunkter og nettlesere. Den skanner kontinuerlig tekst og filer for PII, PHI/PCI, hemmeligheter og legitimasjoner; klassifiserer innhold med ML; og håndhever retningslinjer i sanntid. Integreringer inkluderer Slack, Google Drive, GitHub og e-post, samt API-er/SDK-er for tilpassede applikasjoner og LLM-er. Retting omfatter redigering, karantene og sletting, samt brukerutdanning, hendelsesarbeidsflyter og retningslinjestøtte.

Du og Isaac grunnla Nightfall i 2018 på troen på at AI kunne gjøre DLP bedre, raskere og mer tilgjengelig for bedrifter. Kan du dele hva dette grunnleggende øyeblikket så ut som og hvordan du kom frem til ideen om en “AI-nativ DLP” fra dag én?

I de tidlige dagene ønsket vi å bruke maskinlæring til å oppdage og beskytte følsomme data hvor som helst de bor på skytjenester og moderne arbeidsflyter. Da vi gikk ut av stealth i 2019, stilte vi oss selv som en skytjenestenativ, ML-drevet SaaS DLP-løsning med en visjon om å bygge ‘kontrollplanet for skydata.’ Etter hvert som vi utvidet oss utenfor SaaS til å dekke dataekstraksjon på tvers av sluttpunkter og generativ AI, ble ‘AI-nativ DLP’ vårt paraplybegrep.

Før du startet Nightfall, var du en av grunnleggerne av Uber Eats, hvor du så hvordan data spredte seg på tvers av SaaS og skyverktøy. Hvordan påvirkte dine erfaringer der din syn på datasikkerhet, og hva var de spesifikke øyeblikkene eller utfordringene som utløste ideen til Nightfall?

I Uber Eats ledet jeg backend-teamene og bygget anvendt maskinlæringstjenester – ting som ETAs og etterspørselsprognoser. Vi håndterte petabyte-skala data spredt over mange forskjellige systemer, som er en miljø hvor følsom informasjon kan flytte seg raskt og ofte usynlig. Denne erfaringen, kombinert med hva hele industrien lærte fra hendelser som Uber-sikkerhetsbruddet i 2016 – hvor angripere i hovedsak utnyttet legitimasjoner som var eksponert i kode på GitHub for å nå AWS-data – fremhevet hvordan denne kombinasjonen av datasprening, legitimasjoner og skyinfrastruktur skaper denne usammenlignbare risikoen uten bedre oppdaging og sikkerhet. Disse realitetene formet Nightfalls fokus på kontekstbevisst oppdaging og forebygging fra starten av.

Nightfall lanserte offentlig i 2019 med Series A-finansiering. Kan du gå gjennom den tidlige reisen fra stealth-modus til lansering, inkludert noen nøkkel-punkt?

Vi opererte i stealth i omtrent ett år, og lanserte offisielt den 7. november 2019 med 20,3 millioner dollar i finansiering ledet av Bain Capital Ventures og Venrock. De tidlige vendepunktene handlet i hovedsak om å bygge ut bred SaaS-integreringer og utvikle høyere-aksurat ML-basert innholds-klassifisering som kunne redusere de falske positive resultater som plaget legacy DLP-løsninger.

Shadow AI refererer til den uovervåkede bruken av verktøy som ChatGPT, Gemini og Copilot på arbeidsplassen, ofte med følge av usynlige datalekkasjer. Hvordan definerer du Shadow AI, og hvorfor er det en voksende bekymring for moderne organisasjoner?

Vi definerer Shadow AI som den ikke-godkjente eller uovervåkede bruken av AI-verktøy av ansatte – tenk å lime inn kildekode eller kundedata i chatboter – som skaper eksponeringsrisiko utenfor IT-styring. Denne definisjonen stemmer overens med hva vi ser fra andre industrielle spillere som IBM og Splunk. Shadow AI er i hovedsak AI som brukes uten godkjenning eller overvåking, som introduserer disse blindpunktene og potensielle dataekstraksjonsrisiko. Kombinasjonen av lett å bruke generativ AI-applikasjoner og mangelen på ordentlig kontroll er hvorfor dette problemet vokser så raskt.

Du har beskrevet flere måter Nightfalls tilnærming til Shadow AI skiller seg fra tradisjonell DLP. Hvilken av disse funksjonene – enten det er kontekstbevisst overvåking, eller sanntids-blokkering – har vist seg å være mest effektiv for dine kunder?

Fra det vi konsekvent hører fra kundene våre, er det to hovedfaktorer som gjør den største forskjellen. Først er det forhånds-kontroll – å faktisk fange følsomt innhold før det sendes til AI-verktøy eller publiseres på nettet. Andre er vår AI-nativ deteksjon som går utover legacy mønster-matching til å forstå og kontekst.

Hva som virkelig er kraftfullt er vår støyreduksjon gjennom kontinuerlig læring. Vårt system forstår innhold og fil-avstamning, lærer av bruker-annotasjoner og handlinger, og identifiserer sikre arbeidsflyter for å undertrykke lav-risiko-aktivitet. Dette reduserer dramatisk falske positive resultater sammenlignet med legacy DLP-løsninger. Vi gjennomfører også sanntids-trussel-deteksjon og risiko-prioritering ved hjelp av LLM-er, transformatorer og datamaskin-syn, med tilpassede fil- og sensitivitets-klassifiseringer som kan avdekke bevegelse av immaterielle eiendommer og høyverdi-dokumenter som går langt utover enkle regel-baserte enhetsdeteksjon. Våre kunder forteller oss at de ser denne transformasjonen fra varsling-utmattelse til fokusert, høy-impakt-sikkerhets-handlinger.

Hvordan stopper Nightfalls nettleser-baserte og sluttpunkt-nativa detekteringssystem datalekkasjer før de skjer, og hvordan sammenlignes dette med legacy DLP-systemer som bare detekterer brudd etter innsending?

Vårt nettleser-utvidelse og sluttpunkt-agenter skanner faktisk forespørsler og filer før de sendes. Vi kan redigere eller blokkere risikabelt innhold i sanntid – så før en ChatGPT-forespørsel sendes, for eksempel. Vi sporer også avstamning så sikkerhetsteamene vet om en fil opprinnelig kom fra et bedriftssystem. Vi distribuerer på macOS og Windows med Chrome- og Firefox-utvidelser som gir denne før-du-sender-redigering og laste-blokkering-funksjonalitet. Dette er en ganske markant kontrast til legacy DLP, som i hovedsak handler om etter-foretakende-deteksjon.

Nightfall har utvidet seg betydelig siden grunnleggelsen. Hvordan har bedriftssikkerhetsbehovene utviklet seg over denne tiden, og hvordan har produktet ditt tilpasset seg i respons?

Landskapet har virkelig skiftet dramatisk. Vi startet med SaaS-skanning – tenk Slack og Google Drive – rundt 2020-2021. Deretter ble Generative AI-vaktmestre kritiske fra 2023, og nå ser vi dette急 behovet for autonom, intelligent trussel-forhindring som kan skaleres med organisatorisk vekst.

Sikkerhetsoperasjons-teamene sliter med økende komplekse verktøy, legacy mønster-matching DLP, konstant manuell retningslinje-justering og bare knusende varsling-utmattelse. Disse problemene sakter etterforskninger, øker overhodet og reduserer sikkerhetseffektiviteten. Produktutviklingen vår har fulgt denne skiftningen fra reaktiv og manuell operasjon til proaktiv, intelligent trussel-forhindring. Vi kunngjorde Generative AI-dekning i 2023, utvidet til dataekstraksjonsforhindring, kryptering og e-post-beskyttelse i 2024, og nå med Nyx, innfører vi hva vi ser på som den neste æraen av agens AI i dataproteksjon – transformerer varsling-utmattelse til fokusert, høy-impakt-sikkerhets-handlinger på tvers av SaaS, sluttpunkter og AI-verktøy.

Du har nylig introdusert Nightfall Nyx, som du beskriver som den første autonome AI-native DLP-plattformen i industrien. Hva gjør den autonom, og hva problemer løser den for sikkerhetsteamene?

Nightfalls AI-deteksjonsplattform leverer allerede svært nøyaktige, lav-støy-resultater – 95% presisjon sammenlignet med de 5-30% som er typisk for tradisjonell regex eller regel-basert DLP. Sittende på toppen av denne grunnlaget er Nyx det AI-intelligens-laget som hjelper sikkerhetsteamene med å etterforske, korrelere og forstå risiko.

Selv etter at støyen er borte, begynner den virkelige arbeidet. I store organisasjoner kan sikkerhetsoperasjons-teamene fortsatt møte hundrevis av legitime varslinger hver dag. Å si fra hverandre hvilke som er forretnings-godkjente arbeidsflyter og hvilke som er risikable eller insider-trusler, kan ta timer. Nyx tar på seg denne etterforsknings-arbeidet – akselerer analyse så teamene kan fokusere på handling, ikke søking og sortering gjennom sider med varslinger.

Nyx kobler punktene på tvers av dataekstraksjons-hendelser – brukere, domener, enheter,, filnavn og mer – og presenterer mønster øyeblikkelig. Gjennom dens naturlige-språk-grensesnitt kan analytikere handle på mønster, etterforske funn, produsere rapporter og få anbefalte handlinger på sekunder. Oppgaver som tidligere tok to timer kan nå gjøres på under to minutter – en virkelig 20 ganger tid-sparingsspiller.

Med generativ AI-bruken som eksploderer på arbeidsplasser og sikkerhetsteamene sliter med å holde pace, tror du at verktøy som Nightfall vil bli en standard kontroll-lag for bedriftsmiljøer?

Jeg tror banen antyder ja. Vi ser en vidt utbredt Generative AI-adoopsjonsplan på tvers av bedrifter, og store plattformer som Microsoft Entra Internet Access ruller ut inline, forhånds-kontroll for Generative AI-trafikk. Når du parer dette med industrikonsensus rundt Shadow AI-risiko, er det rimelig å forvente forhånds-kontroll, AI-bevisst DLP å bli en standard kontroll-lag sammen med ting som identitet og tilgangs-styring og sluttpunkt-deteksjon og respons.

Til slutt, som grunnlegger som bygger i et så raskt-bevegende rom, hva er din langtids-visjon for Nightfall og rollen til AI i bedrifts-data-beskyttelse?

Vår langtids-visjon bygger på hva vi formulerte ved lanseringen – å være kontrollplanet for sky-data – men nå utvider vi dette med autonome operasjoner og agens AI-kapasiteter. Vi forestiller oss en fremtid hvor sikkerhetsposture forbedres kontinuerlig uten å legge mer arbeid på analytikere, hvor AI eliminerer behovet for spesialisert domene-ekspertise, og hvor organisasjoner kan skifte fra reaktiv, manuell sikkerhets-operasjon til proaktiv, intelligent trussel-forhindring.

I praksis betyr det AI som både forstår data i kontekst og tar trygge, intelligente handlinger – etterforske, veilede, redigere, blokkere – på tvers av SaaS, sluttpunkter, e-post og Shadow AI. Vi ønsker å lukke løkken fra deteksjon til forhindring, gi sikkerhetsteamene en alltid-på, intelligent partner som blir smartere med hver etterforskning og transformerer uker med manuell forensikk til minutter med fokusert respons.

Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Nightfall.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.