Interviews
Rohan Sathe, medeoprichter en CEO van Nightfall – Interviewserie

By
Antoine Tardif, CEO en oprichter van Unite.AI
Rohan Sathe is medeoprichter en CEO van Nightfall AI. Voordat hij Nightfall mede oprichtte, leidde hij het backend-team bij Uber Eats, waar hij toegepaste machine learning-diensten ontwikkelde, zoals verwachte aankomsttijden en vraag-aanbodvoorspelling. Hij was onder andere te gast in de CISO Series-podcast en de Artificial Intelligence Podcast.
Nightfall Voorkomt datalekken met AI en automatiseert DLP (Data Loss Prevention) in SaaS- en GenAI-apps, endpoints en browsers. Het scant continu tekst en bestanden op PII, PHI/PCI, geheimen en inloggegevens; classificeert content met machine learning; en handhaaft beleid in realtime. Integraties omvatten Slack, Google Drive, GitHub en e-mail, met API's/SDK's voor aangepaste apps en LLM's. Herstel omvat redactie, quarantaine en verwijdering, naast gebruikerscoaching, incidentworkflows en complianceondersteuning.
Jij en Isaac richtten Nightfall in 2018 op vanuit de overtuiging dat AI DLP beter, sneller en toegankelijker kon maken voor bedrijven. Kun je vertellen hoe dat oprichtingsmoment eruitzag en hoe jullie vanaf dag één op het idee van een "AI-native DLP" kwamen?
In het begin wilden we machine learning gebruiken om gevoelige gegevens te detecteren en te beschermen, ongeacht waar deze zich bevinden in cloudapps en moderne workflows. Toen we in 2019 uit de schaduw traden, positioneerden we onszelf als een cloud-native, ML-gestuurde SaaS DLP-oplossing met de visie om het 'controlevlak voor clouddata' te bouwen. Naarmate we verder gingen dan SaaS en ons richtten op data-exfiltratie tussen eindpunten en generatieve AI, werd 'AI-native DLP' onze overkoepelende term.
Voordat je Nightfall oprichtte, was je oprichter en engineer bij Uber Eats. Daar zag je met eigen ogen hoe data zich verspreidde over SaaS- en cloudtools. Hoe hebben je ervaringen daar je kijk op databeveiliging beïnvloed? En welke specifieke momenten of uitdagingen hebben je op het idee voor Nightfall gebracht?
Bij Uber Eats leidde ik backendteams en bouwde ik toegepaste ML-services, zoals verwachte aankomsttijden en vraag- en aanbodvoorspellingen. We hadden te maken met data ter grootte van een petabyte, verspreid over vele verschillende systemen. Dit is een omgeving waarin gevoelige informatie razendsnel en vaak onzichtbaar kan worden verplaatst. Die ervaring, gecombineerd met wat de hele sector heeft geleerd van incidenten zoals de inbreuk bij Uber in 2016 – waarbij aanvallers in feite inloggegevens misbruikten die in code op GitHub waren blootgelegd om toegang te krijgen tot AWS-gegevens – maakte duidelijk hoe deze combinatie van dataverspreiding, inloggegevens en cloudinfrastructuur dit buitensporige risico creëert zonder betere detectie en beschermingsmaatregelen. Die realiteiten hebben Nightfall vanaf het begin gevormd in zijn focus op contextbewuste detectie en preventie.
Nightfall werd in 2019 publiekelijk gelanceerd met een serie A-financiering. Kun je ons de beginfase van de stealth-modus tot de lancering laten zien, inclusief belangrijke kantelpunten?
We opereerden ongeveer een jaar in stilte en lanceerden het vervolgens officieel op 7 november 2019 met een financiering van $ 20.3 miljoen, aangevoerd door Bain Capital Ventures en Venrock. De eerste keerpunten draaiden vooral om het uitbouwen van brede SaaS-integraties en het ontwikkelen van nauwkeurigere ML-gebaseerde contentclassificatie, die de foutpositieve resultaten kon verminderen die oudere DLP-oplossingen teisterden.
Shadow AI verwijst naar het ongecontroleerde gebruik van tools zoals ChatGPT, Gemini en Copilot op de werkvloer, wat vaak resulteert in onzichtbare datalekken. Hoe definieer je Shadow AI en waarom is het zo'n groeiende zorg voor moderne organisaties?
We definiëren Shadow AI als het ongeoorloofde of ongecontroleerde gebruik van AI-tools door medewerkers – denk aan het plakken van broncode of klantgegevens in chatbots – wat blootstellingsrisico's creëert buiten de IT-governance. Deze definitie sluit aan bij wat we zien bij andere spelers in de sector, zoals IBM en Splunk. Shadow AI is in wezen AI die wordt gebruikt zonder goedkeuring of toezicht, wat deze blinde vlekken en potentiële risico's op data-exfiltratie introduceert. De combinatie van gebruiksvriendelijke generatieve AI-apps en het gebrek aan adequate controlemechanismen is de reden waarom dit probleem zo snel groeit.
Je hebt meerdere manieren beschreven waarop Nightfalls aanpak van Shadow AI verschilt van traditionele DLP. Welke van deze functies – contextbewuste monitoring, data lineage of realtime blokkering – heeft de grootste impact gehad op je klanten?
Uit wat we consequent van klanten horen, zijn er eigenlijk twee belangrijke factoren die het grootste verschil maken. Ten eerste zijn er de controles vóór indiening – het daadwerkelijk detecteren van gevoelige content voordat deze naar AI-tools wordt verzonden of op internet wordt geplaatst. Ten tweede is er onze AI-native detectie die verder gaat dan traditionele patroonherkenning om de herkomst en context van data te begrijpen.
Wat echt krachtig is, is onze ruisonderdrukking door continu leren. Ons systeem begrijpt content en bestandsherkomst, leert van gebruikersannotaties en -acties en identificeert veilige workflows om activiteiten met een laag risico te onderdrukken. Dit vermindert het aantal foutpositieve resultaten aanzienlijk in vergelijking met oudere DLP-oplossingen. We voeren ook realtime bedreigingsdetectie en risicoprioritering uit met behulp van LLM's, transformers en computer vision, met aangepaste bestands- en gevoeligheidsclassificaties die de beweging van intellectuele eigendom en waardevolle documenten kunnen detecteren die veel verder gaat dan eenvoudige op regels gebaseerde entiteitsdetectie. Onze klanten vertellen ons dat ze deze transformatie zien van waarschuwingsmoeheid naar gerichte, impactvolle beveiligingsmaatregelen.
Hoe voorkomt het browsergebaseerde en endpoint-native detectiesysteem van Nightfall lekken voordat ze plaatsvinden? En hoe verhoudt zich dat tot oudere DLP-systemen die pas lekken detecteren nadat ze zijn ingediend?
Onze browserextensie en endpoint agents scannen prompts en bestanden daadwerkelijk voordat ze worden verzonden. We kunnen riskante content in realtime redigeren of blokkeren, bijvoorbeeld voordat een ChatGPT-prompt wordt verzonden. We traceren ook de herkomst, zodat beveiligingsteams weten of een bestand afkomstig is van een bedrijfssysteem. We implementeren op macOS en Windows met Chrome- en Firefox-extensies die deze functionaliteit voor redigeren vóór verzending en het blokkeren van uploads bieden. Dit staat in schril contrast met de oudere DLP, die vooral draait om detectie achteraf.
Nightfall is sinds de oprichting aanzienlijk gegroeid. Hoe zijn de beveiligingsbehoeften van bedrijven in de loop der tijd geëvolueerd en hoe heeft uw product zich daarop aangepast?
Het landschap is echt drastisch veranderd. We begonnen rond 2020-2021 met SaaS-scanning – denk aan Slack en Google Drive. Vanaf 2023 werden de beschermingsmaatregelen voor generatieve AI cruciaal, en nu zien we een dringende behoefte aan autonome, intelligente bedreigingspreventie die kan meegroeien met de groei van de organisatie.
Security operations teams worstelen met steeds complexere tools, verouderde patroonherkenning (DLP), constante handmatige beleidsaanpassing en een enorme alertmoeheid. Deze problemen vertragen onderzoeken, verhogen de overhead en verminderen de effectiviteit van de beveiliging. Onze productontwikkeling is meegegaan met deze verschuiving van reactieve en handmatige processen naar proactieve, intelligente automatisering. We kondigden in 2023 de dekking van generatieve AI aan, breidden deze in 2024 uit naar exfiltratiepreventie, encryptie en e-mailbeveiliging, en nu luiden we met Nyx het volgende tijdperk van agentische AI ​​in databescherming in: alertmoeheid transformeren in gerichte, impactvolle beveiligingsacties voor SaaS, endpoints en AI-tools.
Je hebt onlangs Nightfall Nyx geïntroduceerd, dat je omschrijft als het eerste autonome AI-native DLP-platform in de branche. Wat maakt het autonoom en welke problemen lost het op voor beveiligingsteams?
Het AI-detectieplatform van Nightfall levert al zeer nauwkeurige resultaten met weinig ruis – 95% precisie, vergeleken met de 5-30% die gebruikelijk is bij traditionele regex of regelgebaseerde DLP. Bovenop deze basis vormt Nyx de AI-intelligentielaag die beveiligingsteams helpt risico's te onderzoeken, correleren en begrijpen.
Zelfs nadat de ruis is verdwenen, begint het echte werk. In grote organisaties kunnen SecOps-teams dagelijks nog steeds honderden legitieme meldingen tegenkomen. Het doorspitten ervan om door het bedrijf goedgekeurde workflows te scheiden van risicovolle problemen met datahygiëne of interne bedreigingen kan uren kosten. Nyx neemt deze zware onderzoekstaak op zich en versnelt de analyse, zodat teams zich kunnen concentreren op actie, in plaats van op het doorzoeken en sorteren van pagina's vol meldingen.
Nyx verbindt de punten tussen exfiltratiegebeurtenissen – gebruikers, domeinen, apparaten, gegevenstypen, bestandsnamen en meer – en brengt direct patronen aan het licht. Dankzij haar natuurlijke taalinterface kunnen analisten reageren op patronen, bevindingen onderzoeken, rapporten opstellen en binnen enkele seconden aanbevolen acties ontvangen. Taken die ooit twee uur duurden, kunnen nu in minder dan twee minuten worden uitgevoerd – een ware 20x snellere tijdsbesparing.
Nu het gebruik van generatieve AI op de werkplek explosief toeneemt en beveiligingsteams moeite hebben om bij te blijven, denkt u dat tools als Nightfall de standaard controlelaag voor bedrijfsomgevingen worden?
Ik denk dat de ontwikkeling ervan wel wijst. We zien wijdverbreide plannen voor de adoptie van generatieve AI in bedrijven, en grote platforms zoals Microsoft Entra Internet Access rollen inline, pre-submission controls uit voor generatief AI-verkeer. Wanneer je dat combineert met de consensus binnen de sector over de risico's van Shadow AI, is het redelijk om te verwachten dat pre-submission, AI-bewuste DLP een standaard controlelaag wordt, naast zaken als identiteits- en toegangsbeheer en endpointdetectie en -respons.
Tot slot, wat is uw visie op de lange termijn voor Nightfall en de rol van AI in de bescherming van bedrijfsgegevens, als oprichter van een bedrijf in een snel veranderende markt?
Onze langetermijnvisie bouwt voort op wat we bij de lancering hebben geformuleerd – het controleplatform voor clouddata – maar we breiden dat nu uit met autonome bewerkingen en agentische AI-mogelijkheden. We zien een toekomst voor ons waarin de beveiligingspositie continu verbetert zonder dat analisten meer werk hoeven te doen, waarin AI de noodzaak voor gespecialiseerde domeinexpertise elimineert en waarin organisaties kunnen overstappen van reactieve, handmatige beveiligingsoperaties naar proactieve, intelligente bedreigingspreventie.
In de praktijk betekent dit AI die data in context begrijpt en veilige, intelligente acties onderneemt – onderzoeken, coachen, redigeren, blokkeren – binnen SaaS, endpoints, e-mail en Shadow AI. We willen de cirkel van detectie naar preventie sluiten en beveiligingsteams een altijd beschikbare, intelligente partner bieden die met elk onderzoek slimmer wordt en weken van handmatig forensisch onderzoek omzet in minuten van gerichte respons.
Bedankt voor het geweldige interview, lezers die meer willen weten, zouden moeten bezoeken Nightfall.
Antoine is een visionair leider en oprichter van Unite.AI, gedreven door een onwrikbare passie voor het vormgeven en promoten van de toekomst van AI en robotica. Als serieel ondernemer gelooft hij dat AI net zo ontwrichtend voor de maatschappij zal zijn als elektriciteit, en wordt hij vaak betrapt op het uiten van lyrische verhalen over de potentie van ontwrichtende technologieën en AGI.
Als futuristisch, hij is toegewijd aan het onderzoeken hoe deze innovaties onze wereld zullen vormgeven. Daarnaast is hij de oprichter van Effecten.io, een platform dat zich richt op investeringen in geavanceerde technologieën die de toekomst opnieuw definiëren en hele sectoren opnieuw vormgeven.
Misschien vind je het leuk
-
Mal Vivek, oprichter en CEO van zeb – Interviewserie
-
Ronen Slavin, CTO en medeoprichter, Cycode – Interviewserie
-
Sebastian Enderlein, Chief Technology Office bij DeepL – Interviewserie
-
Alexey Kurov, Chief Product Officer en medeoprichter van Zing Coach – Interviewserie
-
Ryan Peterson, Chief Product Officer bij Concentrix – Interviewserie
-
Sunil Padiyar, Chief Technology Officer bij Trintech – Interviewserie