Connect with us

Rohan Sathe, Co-Fondateur & PDG de Nightfall – Série d’entretiens

Entretiens

Rohan Sathe, Co-Fondateur & PDG de Nightfall – Série d’entretiens

mm

Rohan Sathe est le co-fondateur et PDG de Nightfall AI. Avant de co-fonder Nightfall, il a dirigé l’équipe backend d’Uber Eats, en construisant des services d’apprentissage automatique appliqués tels que la prédiction de l’heure d’arrivée et la prévision de l’offre et de la demande. Il est apparu en tant qu’invité sur le podcast CISO Series et le podcast Artificial Intelligence, entre autres.

Nightfall empêche les fuites de données avec l’IA, en automatisant la prévention de la perte de données (DLP) sur les applications SaaS et GenAI, les points de terminaison et les navigateurs. Il analyse en continu le texte et les fichiers pour les informations personnelles, les informations de santé/PCI, les secrets et les informations d’identification ; classe le contenu avec l’apprentissage automatique ; et applique les politiques en temps réel. Les intégrations incluent Slack, Google Drive, GitHub et e-mail, avec des API/SDK pour les applications personnalisées et les LLM. La remédiation couvre la rédaction, la mise en quarantaine et la suppression, ainsi que la formation des utilisateurs, les flux de travail d’incident et le soutien à la conformité.

Vous et Isaac avez co-fondé Nightfall en 2018 sur la conviction que l’IA pourrait améliorer la DLP, la rendre plus rapide et plus accessible aux entreprises. Pouvez-vous partager ce que ressemblait ce moment fondateur et comment vous êtes arrivé à l’idée d’une « DLP native IA » dès le premier jour ?

Au début, nous voulions utiliser l’apprentissage automatique pour découvrir et protéger les données sensibles où qu’elles se trouvent dans les applications cloud et les flux de travail modernes. Lorsque nous sommes sortis de la confidentialité en 2019, nous nous sommes positionnés comme une solution SaaS DLP native cloud et alimentée par l’apprentissage automatique, avec une vision de construction du « plan de contrôle des données cloud ». À mesure que nous nous sommes étendus au-delà des applications SaaS pour couvrir l’exfiltration de données sur les points de terminaison et l’IA générative, « DLP native IA » est devenue notre terme générique.

Avant de fonder Nightfall, vous étiez un ingénieur fondateur d’Uber Eats, où vous avez vu de première main comment les données se répandent dans les outils SaaS et cloud. Comment vos expériences là-bas ont-elles façonné votre perspective sur la sécurité des données, et quels moments ou défis spécifiques ont déclenché l’idée de Nightfall ?

À Uber Eats, j’ai dirigé les équipes backend et construit des services d’apprentissage automatique appliqués – des choses comme les ETA et la prévision de l’offre et de la demande. Nous traitions des données à l’échelle des pétaoctets réparties sur de nombreux systèmes différents, ce qui est un environnement où les informations sensibles peuvent se déplacer très rapidement et souvent de manière invisible. Cette expérience, combinée à ce que l’ensemble de l’industrie a appris des incidents comme la faille de sécurité d’Uber en 2016 – où les attaquants ont essentiellement utilisé des informations d’identification exposées dans le code sur GitHub pour accéder aux données AWS – a vraiment mis en évidence comment cette combinaison de dispersion des données, d’informations d’identification et d’infrastructure cloud crée ce risque disproportionné sans meilleure détection et garde-fous. Ces réalités ont façonné la focalisation de Nightfall sur la découverte et la prévention sensibles au contexte dès le départ.

Nightfall a lancé publiquement en 2019 avec un financement de série A. Pouvez-vous nous guider à travers le parcours précoce de la confidentialité au lancement, y compris les points d’inflexion clés ?

Nous avons fonctionné en confidentialité pendant environ un an, puis nous avons lancé officiellement le 7 novembre 2019 avec 20,3 millions de dollars de financement dirigé par Bain Capital Ventures et Venrock. Les points d’inflexion précoces ont vraiment tourné autour de la construction d’intégrations SaaS étendues et du développement d’une classification de contenu basée sur l’apprentissage automatique à plus haute précision qui pourrait réduire les faux positifs qui ont affligé les solutions DLP legacy.

L’IA fantôme fait référence à l’utilisation non surveillée d’outils comme ChatGPT, Gemini et Copilot sur le lieu de travail, souvent entraînant des fuites de données invisibles. Comment définissez-vous l’IA fantôme, et pourquoi est-elle une préoccupation croissante pour les organisations modernes ?

Nous définissons l’IA fantôme comme l’utilisation non autorisée ou non surveillée d’outils d’IA par les employés – pensez à coller du code source ou des données client dans des chatbots – ce qui crée des risques d’exposition en dehors de la gouvernance des TI. Cette définition correspond à ce que nous voyons d’autres acteurs de l’industrie comme IBM et Splunk. L’IA fantôme est essentiellement l’IA utilisée sans approbation ou surveillance, ce qui introduit ces angles morts et des risques potentiels d’exfiltration de données. La combinaison d’applications d’IA générative faciles à utiliser et du manque de contrôles appropriés est pourquoi ce problème croît si rapidement.

Vous avez décrit plusieurs façons dont l’approche de Nightfall en matière d’IA fantôme diffère de la DLP traditionnelle. Lequel de ces fonctionnalités – qu’il s’agisse d’un contrôle préalable, d’une lignée de données ou d’un blocage en temps réel – s’est avéré le plus impactant pour vos clients ?

D’après ce que nous entendons constamment de la part des clients, il y a vraiment deux leviers qui font la plus grande différence. Premièrement, les contrôles préalables – attraper réellement le contenu sensible avant qu’il ne soit envoyé à des outils d’IA ou publié sur le Web. Deuxièmement, notre détection native IA qui va au-delà du correspondance de modèles legacy pour comprendre la lignée des données et le contexte.

Ce qui est vraiment puissant, c’est notre réduction de bruit grâce à l’apprentissage continu. Notre système comprend le contenu et la lignée des fichiers, apprend des annotations et des actions des utilisateurs et identifie les flux de travail sûrs pour supprimer l’activité à faible risque. Cela réduit considérablement les faux positifs par rapport aux solutions DLP legacy. Nous effectuons également une détection de menace en temps réel et une priorisation des risques à l’aide de LLM, de transformateurs et de vision par ordinateur, avec des classificateurs de fichiers et de sensibilité personnalisés qui peuvent découvrir le mouvement de la propriété intellectuelle et des documents de haute valeur qui vont bien au-delà de la simple détection d’entités basée sur des règles. Nos clients nous disent qu’ils voient cette transformation de la fatigue d’alerte à des actions de sécurité ciblées et à fort impact.

Comment le système de détection basé sur le navigateur et les points de terminaison de Nightfall empêche-t-il les fuites avant qu’elles ne se produisent, et comment cela se compare-t-il aux systèmes DLP legacy qui ne détectent les failles qu’après soumission ?

Notre extension de navigateur et nos agents de point de terminaison analysent réellement les invites et les fichiers avant leur soumission. Nous pouvons rédiger ou bloquer le contenu à risque en temps réel – donc avant qu’une invite ChatGPT ne soit envoyée, par exemple. Nous traçons également la lignée afin que les équipes de sécurité sachent si un fichier provenait d’un système d’entreprise. Nous déployons sur macOS et Windows avec des extensions Chrome et Firefox qui fournissent cette fonctionnalité de rédaction et de blocage avant envoi. C’est un contraste assez frappant avec la DLP legacy, qui est principalement axée sur la détection après coup.

Nightfall s’est considérablement étendu depuis sa fondation. Comment les besoins de sécurité des entreprises ont-ils évolué au cours de cette période, et comment votre produit a-t-il évolué en réponse ?

Le paysage a vraiment changé de manière spectaculaire. Nous avons commencé avec l’analyse des applications SaaS – pensez à Slack et Google Drive – autour de 2020-2021. Ensuite, les garde-fous de l’IA générative sont devenus critiques à partir de 2023, et maintenant nous voyons ce besoin urgent de prévention de menace autonome et intelligente qui peut évoluer avec la croissance organisationnelle.

Les équipes de sécurité sont aux prises avec des outils de plus en plus complexes, des DLP legacy basés sur des correspondances de modèles, un réglage de politique manuel constant et une fatigue d’alerte écrasante. Ces problèmes ralentissent les enquêtes, augmentent les coûts et réduisent l’efficacité de la sécurité. L’évolution de notre produit a suivi ce déplacement des opérations réactives et manuelles vers l’automatisation proactive et intelligente. Nous avons annoncé la couverture de l’IA générative en 2023, étendu à la prévention de l’exfiltration, au chiffrement et à la protection des e-mails en 2024, et maintenant avec Nyx, nous amorçons ce que nous considérons comme l’ère suivante de l’IA agente dans la protection des données – transformant la fatigue d’alerte en actions de sécurité ciblées et à fort impact sur les applications SaaS, les points de terminaison et les outils d’IA.

Vous avez récemment introduit Nightfall Nyx, que vous décrivez comme la première plate-forme DLP native IA autonome de l’industrie. Qu’est-ce qui la rend autonome, et quels problèmes cela résout-il pour les équipes de sécurité ?

La plate-forme de détection d’IA de Nightfall livre déjà des résultats très précis et à faible bruit – 95 % de précision par rapport aux 5-30 % typiques des DLP traditionnelles basées sur des expressions régulières ou des règles. Reposant sur cette fondation, Nyx est la couche d’intelligence d’IA qui aide les équipes de sécurité à enquêter, à corréler et à comprendre les risques.

Même après la disparition du bruit, le véritable travail commence. Dans les grandes organisations, les équipes de sécurité peuvent encore faire face à des centaines d’alertes légitimes chaque jour. Le fait de trier celles-ci pour séparer les flux de travail approuvés par l’entreprise des problèmes de propreté des données ou des menaces internes peut prendre des heures. Nyx prend en charge ce travail d’enquête – en accélérant l’analyse afin que les équipes puissent se concentrer sur l’action, et non sur la recherche et le tri des pages d’alertes.

Nyx relie les points entre les événements d’exfiltration – utilisateurs, domaines, appareils, types de données, noms de fichiers, etc. – et met en évidence les modèles instantanément. Grâce à son interface en langage naturel, les analystes peuvent agir sur les modèles, enquêter sur les résultats, produire des rapports et obtenir des actions recommandées en quelques secondes. Les tâches qui prenaient auparavant deux heures peuvent maintenant être effectuées en moins de deux minutes – un véritable changement de jeu avec un gain de temps 20 fois supérieur.

Avec l’utilisation de l’IA générative explosant sur les lieux de travail et les équipes de sécurité luttant pour suivre, pensez-vous que des outils comme Nightfall deviendront une couche de contrôle par défaut pour les environnements d’entreprise ?

Je pense que la trajectoire le suggère. Nous voyons des plans d’adoption généralisés de l’IA générative à travers les entreprises, et des plates-formes majeures comme Microsoft Entra Internet Access déployant des contrôles en ligne et des contrôles préalables pour le trafic d’IA générative. Lorsque vous associez cela au consensus de l’industrie sur les risques de l’IA fantôme, il est raisonnable de s’attendre à ce que le contrôle DLP préalable et sensible à l’IA devienne une couche de contrôle par défaut aux côtés de choses comme la gestion des identités et des accès et la détection et la réponse aux points de terminaison.

Enfin, en tant que fondateur qui construit dans un espace en constante évolution, quelle est votre vision à long terme pour Nightfall et le rôle de l’IA dans la protection des données d’entreprise ?

Notre vision à long terme s’appuie sur ce que nous avons articulé lors du lancement – être le plan de contrôle des données cloud – mais maintenant nous l’étendons avec des capacités d’exploitation autonome et d’IA agente. Nous imaginons un avenir où la posture de sécurité s’améliore en continu sans ajouter de travail aux analystes, où l’IA élimine le besoin d’expertise de domaine spécialisée, et où les organisations peuvent passer d’opérations de sécurité réactives et manuelles à une prévention de menace proactive et intelligente.

Dans la pratique, cela signifie une IA qui comprend à la fois les données dans leur contexte et prend des mesures sûres et intelligentes – enquêter, former, rédiger, bloquer – sur les applications SaaS, les points de terminaison, les e-mails et les outils d’IA fantôme. Nous voulons fermer la boucle de la détection à la prévention, en donnant aux équipes de sécurité un partenaire intelligent toujours actif qui devient plus intelligent avec chaque enquête et transforme des semaines de forensique manuelle en minutes de réponse ciblée.

Merci pour cette excellente interview, les lecteurs qui souhaitent en savoir plus doivent visiter Nightfall.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.