Connect with us

Wawancara

Rohan Sathe, Co-Founder & CEO of Nightfall – Interview Series

mm

Rohan Sathe adalah Co-Founder & CEO dari Nightfall AI. Sebelum menjadi co-founder Nightfall, dia memimpin tim backend di Uber Eats, membangun layanan machine learning yang diterapkan seperti prediksi ETA dan peramalan supply-demand. Dia telah menjadi tamu di podcast CISO Series dan Artificial Intelligence Podcast, di antara outlet lainnya.

Nightfall mencegah kebocoran data dengan AI, mengotomatisasi DLP (pencegahan kehilangan data) di seluruh SaaS dan aplikasi GenAI, endpoint, dan browser. Ini terus memindai teks dan file untuk PII, PHI/PCI, rahasia, dan kredensial; mengklasifikasikan konten dengan ML; dan menerapkan kebijakan secara waktu nyata. Integrasi termasuk Slack, Google Drive, GitHub, dan email, dengan API/SDK untuk aplikasi kustom dan LLM. Remediasi mencakup redaksi, karantina, dan penghapusan, bersama dengan pelatihan pengguna, alur insiden, dan dukungan kepatuhan.

Anda dan Isaac mendirikan Nightfall pada 2018 dengan keyakinan bahwa AI dapat membuat DLP lebih baik, lebih cepat, dan lebih mudah diakses oleh perusahaan. Bisakah Anda membagikan apa yang terjadi pada saat pendirian dan bagaimana Anda tiba pada ide “AI-native DLP” dari hari pertama?

Di hari-hari awal, kami ingin menggunakan machine learning untuk menemukan dan melindungi data sensitif di mana pun itu berada di seluruh aplikasi cloud dan alur kerja modern. Ketika kami keluar dari stealth pada 2019, kami memposisikan diri sebagai solusi DLP SaaS cloud-native, ML-powered dengan visi membangun ‘control plane untuk data cloud.’ Ketika kami memperluas cakupan kami di luar SaaS untuk mencakup data exfiltration di seluruh endpoint dan AI generatif, ‘AI-native DLP’ menjadi istilah payung kami.

Sebelum mendirikan Nightfall, Anda adalah insinyur pendiri di Uber Eats, di mana Anda melihat langsung bagaimana data menyebar di seluruh SaaS dan alat cloud. Bagaimana pengalaman Anda di sana membentuk perspektif Anda tentang keamanan data, dan apa saja momen atau tantangan yang memicu ide untuk Nightfall?

Di Uber Eats, saya memimpin tim backend dan membangun layanan machine learning yang diterapkan—seperti ETAs dan peramalan supply-demand. Kami menangani data skala petabyte yang tersebar di banyak sistem yang berbeda, yang merupakan lingkungan di mana informasi sensitif dapat bergerak sangat cepat dan seringkali tidak terlihat. Pengalaman itu, dikombinasikan dengan apa yang seluruh industri pelajari dari insiden seperti pelanggaran Uber pada 2016—di mana penyerang pada dasarnya menggunakan kredensial yang terbuka di GitHub untuk mencapai data AWS—sangat menekankan bagaimana kombinasi penyebaran data, kredensial, dan infrastruktur cloud menciptakan risiko yang tidak seimbang tanpa deteksi dan pengaman yang lebih baik. Kenyataan-kenyataan itu membentuk fokus Nightfall pada penemuan dan pencegahan yang sadar konteks sejak awal.

Nightfall diluncurkan secara publik pada 2019 dengan pendanaan Seri A. Bisakah Anda menjelaskan perjalanan awal dari mode stealth ke peluncuran, termasuk titik infleksi kunci?

Kami beroperasi dalam mode stealth selama sekitar satu tahun, lalu diluncurkan secara resmi pada 7 November 2019 dengan $20,3 juta dalam pendanaan yang dipimpin oleh Bain Capital Ventures dan Venrock. Titik infleksi awal sebenarnya berkisar pada membangun integrasi SaaS yang luas dan mengembangkan klasifikasi konten berbasis ML yang lebih akurat yang dapat mengurangi positif palsu yang mengganggu solusi DLP warisan.

Shadow AI mengacu pada penggunaan alat seperti ChatGPT, Gemini, dan Copilot di tempat kerja tanpa pengawasan, yang sering menghasilkan kebocoran data yang tidak terlihat. Bagaimana Anda mendefinisikan Shadow AI, dan mengapa ini menjadi perhatian yang semakin besar bagi organisasi modern?

Kami mendefinisikan Shadow AI sebagai penggunaan alat AI oleh karyawan tanpa izin atau pengawasan—seperti menempelkan kode sumber atau data pelanggan ke chatbot—yang menciptakan risiko eksposur di luar pengawasan IT. Definisi ini sejalan dengan apa yang kami lihat dari pemain industri lain seperti IBM dan Splunk. Shadow AI pada dasarnya adalah AI yang digunakan tanpa persetujuan atau pengawasan, yang memperkenalkan titik buta dan potensial risiko kebocoran data. Kombinasi aplikasi AI generatif yang mudah digunakan dan kurangnya kontrol yang tepat adalah mengapa masalah ini tumbuh dengan cepat.

Anda telah menjelaskan beberapa cara pendekatan Nightfall terhadap Shadow AI berbeda dari DLP tradisional. Fitur mana—apakah itu pemantauan yang sadar konteks, garis keturunan data, atau pemblokiran waktu nyata—yang terbukti paling berdampak bagi pelanggan Anda?

Dari apa yang kami dengar secara konsisten dari pelanggan, ada dua tuas utama yang membuat perbedaan besar. Pertama adalah kontrol pra-pengiriman—benar-benar menangkap konten sensitif sebelum dikirim ke alat AI atau diposting di web. Kedua adalah deteksi AI-native kami yang bergerak melampaui pencocokan pola warisan untuk memahami garis keturunan data dan konteks.

Apa yang sangat kuat adalah pengurangan kebisingan kami melalui pembelajaran terus-menerus. Sistem kami memahami konten dan garis keturunan file, belajar dari anotasi dan tindakan pengguna, dan mengidentifikasi alur kerja yang aman untuk menekan aktivitas risiko rendah. Ini secara dramatis mengurangi positif palsu dibandingkan dengan solusi DLP warisan. Kami juga melakukan deteksi ancaman waktu nyata dan prioritisasi risiko menggunakan LLM, transformer, dan visi komputer, dengan klasifikasi file dan sensitivitas kustom yang dapat mengungkapkan pergerakan properti intelektual dan dokumen berharga yang jauh melampaui deteksi entitas berbasis aturan sederhana. Pelanggan kami mengatakan mereka melihat transformasi dari kelelahan alert ke tindakan keamanan yang fokus dan berdampak tinggi.

Bagaimana sistem deteksi berbasis browser dan endpoint-native Nightfall mencegah kebocoran sebelum terjadi, dan bagaimana ini dibandingkan dengan sistem DLP warisan yang hanya mendeteksi pelanggaran setelah pengiriman?

Ekstensi browser dan agen endpoint kami sebenarnya memindai prompt dan file sebelum dikirim. Kami dapat meredaksi atau memblokir konten berisiko secara waktu nyata—jadi sebelum prompt ChatGPT dikirim, misalnya. Kami juga melacak garis keturunan sehingga tim keamanan tahu apakah file berasal dari sistem perusahaan. Kami mengirimkan pada macOS dan Windows dengan ekstensi Chrome dan Firefox yang menyediakan fungsionalitas redaksi dan pemblokiran sebelum pengiriman ini. Ini adalah kontras yang cukup tajam dengan DLP warisan, yang sebagian besar tentang deteksi setelah kejadian.

Nightfall telah berkembang secara signifikan sejak didirikan. Bagaimana kebutuhan keamanan perusahaan telah berkembang selama waktu itu, dan bagaimana produk Anda beradaptasi sebagai respons?

Lanskapnya telah berubah secara dramatis. Kami memulai dengan pemindaian SaaS—seperti Slack dan Google Drive—sekitar 2020-2021. Lalu, pengaman AI Generatif menjadi kritis mulai 2023, dan sekarang kami melihat kebutuhan mendesak untuk pencegahan ancaman otonom dan AI yang cerdas yang dapat meningkatkan dengan pertumbuhan organisasi.

Tim operasi keamanan sedang berjuang dengan alat yang semakin kompleks, DLP berbasis pencocokan pola warisan, penyesuaian kebijakan manual konstan, dan kelelahan alert yang menghancurkan. Masalah-masalah ini memperlambat investigasi, meningkatkan overhead, dan mengurangi efektivitas keamanan. Evolusi produk kami telah mengikuti pergeseran ini dari operasi reaktif dan manual ke otomatisasi proaktif dan cerdas. Kami mengumumkan cakupan AI Generatif pada 2023, memperluas ke pencegahan exfiltrasi, enkripsi, dan perlindungan email pada 2024, dan sekarang dengan Nyx, kami memasuki apa yang kami lihat sebagai era berikutnya dari AI agen dalam perlindungan data—mengubah kelelahan alert menjadi tindakan keamanan yang fokus dan berdampak tinggi di seluruh SaaS, endpoint, dan alat AI.

Anda baru-baru ini memperkenalkan Nightfall Nyx, yang Anda deskripsikan sebagai platform DLP AI-native otonom pertama di industri. Apa yang membuatnya otonom, dan apa masalah yang dipecahkan untuk tim keamanan?

Platform deteksi AI Nightfall sudah memberikan hasil yang sangat akurat dan rendah kebisingan — 95% presisi dibandingkan dengan 5–30% yang khas dari DLP berbasis regex atau aturan. Berdiri di atas fondasi itu, Nyx adalah lapisan kecerdasan AI yang membantu tim keamanan menyelidiki, mengorelasikan, dan memahami risiko.

Bahkan setelah kebisingan hilang, pekerjaan nyata dimulai. Di organisasi besar, tim SecOps masih dapat menghadapi ratusan alert yang sah setiap hari. Menyaring melalui mereka untuk memisahkan alur kerja yang disetujui bisnis dari masalah kebersihan data yang berisiko atau ancaman internal dapat memakan waktu berjam-jam. Nyx mengambil pekerjaan penyelidikan yang berat — mempercepat analisis sehingga tim dapat fokus pada tindakan, bukan mencari dan menyortir melalui halaman alert.

Nyx menghubungkan titik-titik di seluruh acara exfiltrasi — pengguna, domain, perangkat, jenis data, nama file, dan lainnya — menampilkan pola secara instan. Melalui antarmuka bahasa alaminya, analis dapat bertindak pada pola, menyelidiki temuan, menghasilkan laporan, dan mendapatkan tindakan yang disarankan dalam hitungan detik. Tugas yang sebelumnya memakan waktu dua jam sekarang dapat diselesaikan dalam waktu kurang dari dua menit — sebuah permainan yang benar-benar menghemat waktu 20×.

Dengan penggunaan AI generatif meledak di tempat kerja dan tim keamanan berjuang untuk mengimbangi, apakah Anda percaya bahwa alat seperti Nightfall akan menjadi lapisan kontrol default untuk lingkungan perusahaan?

Saya pikir trajektori menunjukkan ya. Kami melihat rencana adopsi AI Generatif yang meluas di seluruh perusahaan, dan platform besar seperti Microsoft Entra Internet Access menggelar kontrol pra-pengiriman inline untuk lalu lintas AI Generatif. Ketika Anda menggabungkan itu dengan konsensus industri tentang risiko Shadow AI, masuk akal untuk mengharapkan kontrol DLP yang sadar AI sebelum pengiriman menjadi lapisan kontrol default di samping hal-hal seperti manajemen identitas dan akses dan deteksi dan respons endpoint.

Akhirnya, sebagai pendiri yang membangun di ruang yang bergerak sangat cepat, apa visi jangka panjang Anda untuk Nightfall dan peran AI dalam perlindungan data perusahaan?

Visi jangka panjang kami membangun pada apa yang kami ungkapkan saat peluncuran — untuk menjadi control plane untuk data cloud — tetapi sekarang kami memperluasnya dengan operasi otonom dan kemampuan AI agen. Kami membayangkan masa depan di mana postur keamanan meningkat terus-menerus tanpa menambah beban kerja pada analis, di mana AI menghilangkan kebutuhan akan keahlian domain khusus, dan di mana organisasi dapat bergeser dari operasi keamanan reaktif dan manual ke pencegahan ancaman proaktif dan cerdas.

Dalam prakteknya, itu berarti AI yang tidak hanya memahami data dalam konteks tetapi juga mengambil tindakan yang aman dan cerdas—menyelidiki, melatih, meredaksi, memblokir—di seluruh SaaS, endpoint, email, dan Shadow AI. Kami ingin menutup loop dari deteksi ke pencegahan, memberi tim keamanan mitra cerdas yang selalu aktif yang menjadi lebih pintar dengan setiap penyelidikan dan mengubah minggu-minggu forensik manual menjadi menit respons yang fokus.

Terima kasih atas wawancara yang luar biasa, pembaca yang ingin mempelajari lebih lanjut harus mengunjungi Nightfall

Antoine adalah seorang pemimpin visioner dan mitra pendiri Unite.AI, didorong oleh semangat yang tak tergoyahkan untuk membentuk dan mempromosikan masa depan AI dan robotika. Seorang wirausaha serial, ia percaya bahwa AI akan sama-sama mengganggu masyarakat seperti listrik, dan sering tertangkap berbicara tentang potensi teknologi mengganggu dan AGI.

As a futurist, ia berdedikasi untuk mengeksplorasi bagaimana inovasi ini akan membentuk dunia kita. Selain itu, ia adalah pendiri Securities.io, sebuah platform yang fokus pada investasi di teknologi-teknologi canggih yang mendefinisikan kembali masa depan dan membentuk kembali seluruh sektor.