Wawancara
Shahar Man, Co-founder dan CEO Backslash Security – Seri Wawancara

Shahar Man, Co-founder dan CEO Backslash Security, adalah pemimpin teknologi berpengalaman dengan keahlian mendalam di bidang pengembangan cloud, keamanan siber, dan perangkat lunak perusahaan. Saat ini, ia memimpin Backslash Security, sebuah perusahaan yang fokus pada mengamankan lingkungan pengembangan perangkat lunak asli AI, melindungi semua hal dari IDE dan agen AI hingga kode yang dihasilkan dan alur kerja prompting. Sebelumnya, ia menjabat sebagai pemimpin senior di Aqua Security, di mana ia menjabat sebagai Wakil Presiden Manajemen Produk dan Wakil Presiden R&D, membantu membangun salah satu platform terkemuka untuk keamanan kontainer di seluruh siklus pengembangan. Pada awal karirnya, Man menghabiskan lebih dari satu dekade di SAP, di mana ia memimpin pengembangan dan inisiatif produk, termasuk SAP Web IDE, dan bekerja sama dengan pelanggan perusahaan global, serta berkontribusi pada pertumbuhan ekosistem pengembang. Karirnya dimulai dengan peran teknis dan kepemimpinan di lingkungan startup dan unit teknologi pertahanan Israel, memberinya dasar yang kuat dalam kedua bidang teknik dan sistem skala besar.
Backslash Security adalah platform keamanan siber yang muncul, dirancang khusus untuk era pengembangan perangkat lunak yang didorong oleh AI. Perusahaan ini fokus pada mengamankan seluruh tumpukan pengembangan asli AI, termasuk agen AI, pipa penghasilan kode, dan alur kerja pengembang modern, area yang sering diabaikan oleh alat keamanan tradisional. Dengan memberikan visibilitas, tata kelola, dan perlindungan waktu nyata tanpa mengganggu kecepatan pengembang, Backslash bertujuan untuk mengatasi risiko yang meningkat yang diperkenalkan oleh lingkungan pengkodean otomatis dan “vibe coding”. Ketika penciptaan perangkat lunak semakin bergeser ke arah sistem yang dibantu AI, platform ini dirancang untuk memastikan bahwa keamanan berkembang secara paralel, bukan menjadi bottleneck, sehingga memposisikan Backslash di persimpangan antara DevSecOps dan pengembangan AI generasi berikutnya.
Anda telah memegang peran kepemimpinan di bidang produk dan R&D di perusahaan seperti Aqua Security dan SAP sebelum mendirikan Backslash. Apa yang menjadi sinyal awal yang meyakinkan Anda bahwa pengembangan asli AI dan “vibe coding” akan mengubah secara fundamental cara penciptaan perangkat lunak, dan bahwa keamanan perlu dibangun kembali untuk mendukungnya?
Saya sudah melalui satu perubahan besar ketika perangkat lunak pindah ke arsitektur cloud-asli. Di SAP dan kemudian di Aqua, kami melihat langsung bahwa ketika pengembangan berubah sebanyak itu, keamanan biasanya tertinggal. AI telah membawa kebenaran itu ke tingkat yang baru, tidak hanya karena dapat membantu menulis kode lebih cepat, tetapi karena telah mulai mengubah lingkungan sekitar penciptaan perangkat lunak.
Mengamankan kode sekarang kurang tentang kode itu sendiri dan lebih tentang lingkungan sekitarnya. Dalam waktu kurang dari satu tahun, apa yang dulunya merupakan pengaturan pengembangan yang relatif terkandung dan berisiko rendah telah berkembang menjadi permukaan serangan yang luas dan sangat terhubung dengan sedikit pengawasan atau tata kelola. Begitu itu terjadi, pertanyaan keamanan sekitar kerentanan kode berubah sama sekali. Masalah nyata bukanlah apakah sebuah potongan kode tertentu rentan. Masalahnya adalah bahwa dengan mengaktifkan pengembangan yang didorong AI, kita telah memperkenalkan sistem, agen, integrasi, dan jalur akses yang jauh melampaui kode itu sendiri. Keamanan tidak lagi dapat fokus hanya pada output kode. Ini harus memperhitungkan lingkungan seluruhnya yang membuat kode itu memungkinkan.
Anda menggambarkan “vibe coding” sebagai pengembangan permukaan serangan di luar kode ke prompt, agen, server MCP, dan lapisan tooling. Apa yang paling salah dipahami tentang risiko dalam tumpukan baru ini yang pengembang dan tim keamanan saat ini abaikan?
Salah paham terbesar adalah bahwa banyak tim masih berpikir bahwa risiko hidup terutama dalam kode yang dihasilkan. Itu hanya satu lapisan. Dalam pengembangan asli AI, risiko diperkenalkan lebih awal dan di banyak tempat. Ini bisa dalam prompt, dalam konteks yang diberikan kepada model, dalam izin yang diberikan kepada agen, dalam server MCP yang mereka hubungi, atau dalam alat eksternal dan plugin yang memperluas jangkauan mereka. Sebuah laptop pengguna tunggal dapat diambil alih dan digunakan sebagai jembatan untuk serangan yang lebih luas. Ini adalah masalah titik akhir yang menyamar sebagai masalah pengkodean AI. Tidak seperti kerentanan kode, ini tidak hanya mempertaruhkan aplikasi Anda – ini dapat mempertaruhkan seluruh organisasi Anda. Jika Anda hanya melihat kode, Anda melewatkan sebagian besar gambaran.
Keamanan aplikasi tradisional telah fokus berat pada tinjauan kode. Bagaimana pemikiran keamanan perlu berkembang ketika agen AI menghasilkan, memodifikasi, dan mengirim kode dalam waktu nyata?
Keamanan harus berpindah dari inspeksi berkala ke pengawasan terus-menerus. Konsep kepercayaan sepenuhnya hancur — Anda dapat memiliki model tepercaya dan server MCP tepercaya, tetapi karena sifat non-deterministik AI, mereka masih dapat dimanipulasi atau hanya berperilaku tidak terduga untuk menciptakan risiko yang tidak terduga.
Ini juga berarti bahwa harus ada pergeseran pemikiran di mana keamanan beroperasi bersama dengan proses pengembangan saat terjadi dan memiliki tata kelola, pengawasan, dan kemampuan deteksi serta respons yang jauh lebih dalam dalam lingkungan tersebut. Artinya, berpikir secara kritis tentang alat apa yang digunakan, konteks apa yang mereka konsumsi, kebijakan apa yang harus mengatur mereka, dan tindakan apa yang mereka ambil dalam waktu nyata.
Alat seperti Cursor, Claude Code, dan GitHub Copilot menjadi standar dalam alur kerja pengembang. Di mana Anda melihat celah keamanan terbesar ketika tim mengadopsi alat ini tanpa lapisan tata kelola yang tepat?
Celah terbesar adalah visibilitas. Di banyak organisasi, alat ini menyebar dengan cepat dan tanpa tinjauan formal. Tim keamanan sering tidak tahu agen mana yang digunakan, bagaimana mereka dikonfigurasi, data apa yang dapat mereka akses, atau sistem eksternal mana yang mereka hubungi. Ini menciptakan masalah AI bayangan, yang mirip dengan masalah IT bayangan dalam prinsip, hanya lebih cepat dan lebih dinamis.
Celah terbesar kedua adalah kurangnya kebijakan yang dapat ditegakkan. Banyak organisasi mungkin memiliki pedoman, tetapi pedoman saja tidak banyak membantu ketika pengembang bergerak cepat di dalam IDE. Tanpa tata kelola pada lapisan alat dan alur kerja, tim berisiko memiliki alat yang berlebihan yang tidak memenuhi standar perusahaan. Alat ini tidak secara inheren buruk, tetapi mengadopsinya tanpa tata kelola berarti Anda secara efektif meningkatkan kecepatan pengembangan tanpa meningkatkan kontrol.
Celah yang muncul ketiga adalah bahwa siapa saja dapat menjadi pengembang – apa yang kami sebut pengembang warga, menggunakan alat pengkodean “vibe”. Ketika orang keuangan menggunakan Claude Code untuk mengotomatisasi proses dan menghubungkan ke sistem internal, ini menciptakan risiko potensial dan merupakan titik buta besar bahkan saat ini.
Backslash fokus pada mengamankan seluruh ekosistem pengembangan AI daripada alat individual. Mengapa pendekatan full-stack ini diperlukan, dan apa yang terjadi jika organisasi terus mengobati risiko ini secara terisolasi?
Karena risiko tidak berada di dalam produk tertentu dalam tumpukan Anda. Pengembangan asli AI secara inheren merupakan masalah ekosistem karena beroperasi di banyak tempat yang berbeda, menggunakan banyak alat yang berbeda. IDE, model, agen, server MCP, plugin eksternal, identitas, dan sumber data terhubung semua mempengaruhi apa yang dibangun dan bagaimana. Organisasi tidak secara sengaja memilih untuk tidak memstandarkan pada satu alat karena kekuatan relatif mereka berubah sangat cepat. Jika Anda mengamankan hanya satu titik dalam rantai itu, Anda masih melewatkan bagaimana risiko bergerak melintasi sistem.
Mengobati risiko ini secara terisolasi mengarah pada pertahanan yang terfragmentasi dan titik buta berbahaya. Anda mungkin mengeras kode pemindai, tetapi mengabaikan server MCP yang memberikan konteks berisiko ke model. Itulah mengapa kami percaya bahwa pendekatan yang tepat adalah visibilitas full-stack dan perlindungan waktu nyata di seluruh ekosistem pengembangan AI. Jika tidak, organisasi akan terus memecahkan gejala sementara permukaan serangan yang sebenarnya terus berkembang di bawah mereka.
Prompting muncul sebagai lapisan baru dari kemampuan pemrograman. Bagaimana organisasi harus mendekati pengamanan prompt dan mencegah masalah seperti injeksi prompt, kebocoran data, atau manipulasi?
Prompt semakin membentuk logika dan perilaku. Dalam banyak kasus, mereka secara efektif merupakan pesawat kontrol baru untuk penciptaan perangkat lunak. Artinya, mereka memerlukan kebijakan, pemantauan, dan pengawasan seperti yang diperlukan untuk definisi kode atau infrastruktur. Secara praktis, ini dimulai dengan membatasi apa yang dapat diakses prompt dan tindakan hilir apa yang dapat mereka picu. Ini juga berarti mendefinisikan aturan prompt yang selaras dengan harapan keamanan dan kualitas, mencegah data sensitif terpapar melalui jendela konteks, dan mengawasi upaya manipulasi seperti injeksi prompt atau perampasan instruksi tidak langsung. Dan ini juga termasuk memastikan bahwa aturan itu sendiri tidak digunakan sebagai backdoor untuk injeksi prompt. Poin yang lebih luas adalah bahwa Anda tidak mengamankan prompting dengan menginstruksikan pengembang dan agen untuk “berhati-hati”. Anda mengamankannya dengan membenamkan kontrol ke dalam lingkungan di mana prompting sebenarnya terjadi.
Server MCP dan keterampilan agen memperkenalkan koneksi dinamis antara sistem. Dari perspektif keamanan, apakah mereka mewakili vektor risiko baru yang paling signifikan dalam alur kerja pengembangan yang didorong AI?
Server MCP dan keterampilan agen mewakili lapisan risiko baru yang signifikan karena mereka mendefinisikan bagaimana sistem AI terhubung ke dan berinteraksi dengan dunia nyata. Keterampilan mendefinisikan apa yang dapat dilakukan agen, sementara MCP memperluas aksesnya ke konteks dan sistem. Bersama-sama, mereka membentuk perilaku aktual agen. Jika lapisan-lapisan ini tidak dikontrol dengan ketat, organisasi kehilangan visibilitas ke dalam kemampuan dan tindakan alat AI mereka. Pergeseran dari menghasilkan kode ke mengambil tindakan adalah apa yang membuat ini menjadi area kritis untuk keamanan, dan mereka menjadi lebih tidak terduga ketika Anda menghubungkannya.
Salah satu tema inti Anda adalah “menjadi departemen Ya” – memungkinkan keamanan tanpa melambatkan pengembang. Bagaimana Anda menyeimbangkan perlindungan waktu nyata dengan kecepatan pengembang dalam lingkungan di mana kecepatan sangat kritis?
Keamanan menciptakan gesekan ketika itu terjadi terlambat atau terputus dari cara pengembang sebenarnya bekerja. Ini menjadi jauh lebih efektif ketika itu dibenamkan langsung ke dalam alur kerja dan fokus pada apa yang benar-benar penting. Ini telah menjadi bagian dari pemikiran kami sejak Backslash dimulai, dan ini semakin penting sekarang dalam pengembangan yang didorong AI.
Dalam praktiknya, ini berarti menyajikan beberapa masalah yang mewakili risiko nyata, bukan membanjiri pengembang dengan semua yang terlihat secara teoretis mencurigakan. Ini berarti menegakkan kebijakan dalam alur kerja IDE dan agen, bukan setelah fakta. Dan ini berarti menciptakan pengawasan yang transparan dan deterministik sehingga tim dapat bergerak cepat sambil tetap mengetahui alat mana yang digunakan, izin apa yang mereka miliki, dan kapan sesuatu yang tidak biasa terjadi. Tujuan bukanlah untuk memperlambat adopsi AI, tetapi untuk membantu organisasi mengadopsinya dengan percaya diri tanpa kehilangan kontrol. Dalam arti sebenarnya, ini berarti bahwa pengembang akan memiliki lebih sedikit ruang untuk membuat kesalahan dari awal, tetapi jika mereka membuat kesalahan, itu akan ditangkap dan ditangani dengan cepat.
Kita melihat pengguna non-teknis semakin banyak membangun perangkat lunak menggunakan alat AI. Bagaimana meningkatnya pengembang “vibe” non-teknis mengubah lanskap ancaman?
Ini memperluas lanskap ancaman dengan dua cara. Pertama, ini secara dramatis meningkatkan jumlah orang yang dapat menghasilkan output seperti perangkat lunak tanpa memahami implikasi keamanan. Kedua, ini menciptakan perasaan keselamatan yang salah karena alat membuat pengembangan terasa seperti percakapan dan rendah gesekan.
Ini berarti organisasi akan melihat lebih banyak aplikasi, otomatisasi, dan integrasi yang dibuat oleh orang-orang yang tidak terlatih untuk mempertimbangkan batasan kepercayaan, validasi input, kebersihan dependensi, kontrol akses, atau paparan data. Dengan kata lain, permukaan serangan berkembang tidak hanya karena AI menulis lebih banyak kode, tetapi karena lebih banyak orang sekarang dapat menghasilkan alur kerja dan sistem yang berperilaku seperti perangkat lunak tanpa menerapkan disiplin rekayasa dasar. Ini membuat visibilitas dan pengawasan bawaan menjadi lebih penting, karena Anda tidak lagi dapat mengasumsikan pengetahuan keamanan pada titik penciptaan.
Menghadap ke depan 12 hingga 24 bulan, jenis serangan atau kerentanan apa yang Anda harapkan akan muncul secara khusus karena alur kerja pengembangan asli AI?
Kami harapkan banyak kerentanan kode umum akan dihindari dari awal melalui perbaikan dalam LLM itu sendiri, atau melalui aturan prompt yang lebih baik dalam “harness” yang mengelilingi alat tersebut. Jika sekarang kami melihat peningkatan volume kerentanan hanya karena kecepatan yang meningkat, ini akan memperbaiki diri. Dan apa yang tidak diperbaiki akan dikejar oleh SAST dan SCA yang ditenagai AI (beberapa di antaranya juga disediakan oleh vendor platform AI, misalnya, Claude Code Security dan proyek Glasswing).
Namun, saya mengharapkan hasil yang jauh lebih buruk ketika menggunakan alat AI yang tidak diverifikasi dan tidak diawasi dalam pengembangan aplikasi – seperti agen sumber terbuka (OpenClaw adalah contoh yang baik), yang memiliki default keamanan yang sangat buruk dipasangkan dengan basis pengguna yang pengetahuan keamanannya jauh tertinggal oleh antusiasme mereka untuk pengkodean “vibe”.
Sebagai konsekuensi, saya pikir kita akan melihat pergeseran ke arah serangan yang menargetkan ekosistem pengembangan itu sendiri, bukan hanya sistem produksi. Ketika AI menjadi bagian dari cara perangkat lunak dibuat, penyerang akan fokus pada memanipulasi alat dan koneksi yang membentuk proses itu, secara efektif mengompromikan perangkat lunak sebelum perangkat lunak itu bahkan diterapkan.
Terima kasih atas wawancara yang luar biasa, pembaca yang ingin mempelajari lebih lanjut dapat mengunjungi Backslash Security.












