Röportajlar
Backslash Güvenlik’in Kurucu Ortağı ve CEO’su Shahar Man – Röportaj Serisi

Shahar Man, Backslash Güvenlik’in kurucu ortağı ve CEO’su, bulut geliştirme, siber güvenlik ve entreprise yazılımı konularında derin uzmanlığa sahip bir teknoloji lideridir. Şu anda, IDE’lerden AI ajanlarına, oluşturulan koddan.prompting iş akışlarına kadar her şeyi koruyan AI-yerli yazılım geliştirme ortamlarını güvence altına alan Backslash Güvenlik’i yönetmektedir. Daha önce, Aqua Güvenlik’te Ürün Yönetimi Başkan Yardımcısı ve Ar-Ge Başkan Yardımcısı olarak görev yaptı ve geliştirme yaşam döngüsü boyunca konteynır güvenliği için önde gelen platformlardan birini oluşturmaya yardımcı oldu. Kariyerinin başlangıcında, SAP’de on yılı aşkın bir süre boyunca, SAP Web IDE’nin geliştirilmesine liderlik etti ve küresel entreprise müşterileriyle yakın çalıştı, aynı zamanda geliştirici ekosistemini büyütmeye katkıda bulundu. Kariyeri, hem startup ortamlarında hem de İsrail’in savunma teknoloji birimlerindeki teknik ve liderlik rolleriyle başladı, bu da ona hem mühendislik hem de büyük ölçekli sistemler konusunda güçlü bir temel verdi.
Backslash Güvenlik, AI sürücünlü yazılım geliştirme çağı için özel olarak tasarlanmış bir siber güvenlik platformudur. Şirket, AI ajanları, kod oluşturma boru hatları ve modern geliştirici iş akışları dahil olmak üzere tüm AI-yerli geliştirme yığınını güvence altına almaya odaklanmaktadır, bu alan genellikle geleneksel güvenlik araçları tarafından göz ardı edilmektedir. Geliştirici hızını bozmadan görünürlük, yönetim ve gerçek zamanlı koruma sağlayarak, Backslash, otomatik kodlama ve “vibe coding” ortamları tarafından tanıtılan artan riskleri ele almaya çalışmaktadır. Yazılım oluşturma, AI destekli sistemlere doğru giderek daha fazla kaydıkça, platform, güvenliğin paralel olarak gelişmesini sağlamak için tasarlanmıştır, böylece Backslash, DevSecOps ve sonraki nesil AI geliştirmenin kesişme noktasında konumlandırılmaktadır.
Aqua Güvenlik ve SAP’de ürün ve Ar-Ge’de liderlik rollerinde bulunduktan sonra Backslash’ı kurdunuz. AI-yerli geliştirme ve vibe coding’in yazılım oluşturmasını temel olarak değiştireceğine ve güvenliğin bunu desteklemek için yeniden inşa edilmesi gerektiğine dair erken sinyaller nelerdi?
Şu anda bulut yerel mimarilere doğru kayan bir büyük değişimi zaten yaşamıştım. SAP ve daha sonra Aqua’da, geliştirme bu kadar değiştiğinde güvenliğin genellikle geride kaldığını gördük. AI, bunu tamamen yeni bir seviyeye taşıdı, sadece kod yazma hızını artırmakla kalmadı, aynı zamanda yazılım oluşturma etrafındaki tüm ortamı yeniden şekillendirdi.
Kodu güvence altına almak artık kod kendisi hakkında değil, çevresindeki ortam hakkında. Bir yılı aşkın bir sürede, öncekinden çok daha az kapsüllü ve düşük riskli bir geliştirme kurulumu, çok bağlantılı bir saldırı yüzeyine ve çok az denetime veya yönetime sahip bir alana genişledi. Bunun gerçekleşmesi之后, kod güvenlik soruları tamamen değişti. Gerçek sorun, belirli bir kod parçasının savunmasız olup olmadığı değil. Sorun, AI destekli geliştirmeyi etkinleştirdiğimizde, kodun ötesinde uzanan sistemleri, ajanları, entegrasyonları ve erişim yollarını tanıttığımızdır. Güvenlik artık sadece kodu çıktısına odaklanamaz. Tüm ortamı hesaba katmalıdır.
Vibe coding’i, kodu aşan, promt’ları, ajanları, MCP sunucularını ve araç katmanlarını içeren saldırı yüzeyini genişleten bir şey olarak tanımlıyorsunuz. Geliştiriciler ve güvenlik ekiplerinin şu anda göz ardı ettiği bu yeni yığında en yanlış anlaşılan riskler nelerdir?
En büyük yanlış anlama, birçok ekibin hala riskin principalmente oluşturulan kodda yaşadığına inanmasıdır. Bu sadece bir katmandır. AI-yerli geliştirmede, risk daha erken ve daha fazla yerde tanıtılmaktadır. Bu, promt’larda, modele sağlanan bağlamda, ajanlara verilen izinlerde, bağlandıkları MCP sunucularında, onları genişleten dış araçlarda ve eklentilerde olabilir. Bir kullanıcının dizüstü bilgisayarı ele geçirilebilir ve daha geniş bir saldırının köprübaşı olarak kullanılabilir. Bu, bir uç nokta ağrı noktası olarak ortaya çıkan bir AI kodlama sorunudur. Kod açıkları gibi, bu yalnızca uygulamalarınızı riske atmaz, aynı zamanda tüm kuruluşunuzu riske atabilir. Sadece kodu inceliyorsanız, resmin çoğunu kaçırıyorsunuz.
Geleneksel uygulama güvenliği, kodu gözden geçirme üzerinde çok fazla odaklanmıştı. AI ajanları kodu oluştururken, değiştirirken ve dağıtırken, güvenlik düşünce biçimi nasıl evrimleşmelidir?
Güvenlik, periyodik incelemeden sürekli denetime geçmelidir. Güven kavramı tamamen bozuldu – güvenilen modeller ve güvenilen MCP sunucuları olabilir, ancak AI’nın belirsiz doğası nedeniyle hala manipüle edilebilir veya beklenmedik riskler oluşturabilir.
Bu ayrıca, güvenlik düşünce biçiminin geliştirme sürecinin bir parçası olarak ve gerçek zamanlı olarak daha derin bir yönetim, güvenlik duvarları ve algılama ve yanıt yeteneklerine sahip olması gerektiği anlamına gelir. Bu, kullanılan araçları, tüketilen bağlamı, uygulanması gereken politikaları ve gerçekleştirdikleri eylemleri kritik olarak düşünmek anlamına gelir.
Cursor, Claude Code ve GitHub Copilot gibi araçlar, geliştirici iş akışlarının standardı haline geliyor. Bu araçları uygun bir yönetim katmanı olmadan benimseyen ekiplerde en büyük güvenlik açıklarını nerede görüyorsunuz?
En büyük açıklık, görünürlüktir. Birçok organizasyonda, bu araçlar hızlı bir şekilde yayılıyor ve resmi bir inceleme olmadan. Güvenlik ekipleri genellikle hangi ajanların kullanıldığını, nasıl yapılandırıldığını, hangi verilere erişimi olduğunu veya hangi dış sistemlere bağlı olduğunu bilmezler. Bu, bir gölge AI sorununa neden olur, bu prensipte gölge BT’ye benzer, ancak daha hızlı ve daha dinamiktir.
İkinci en büyük açıklık, uygulanabilir politikaların eksikliğidir. Çoğu organizasyonun rehberleri olabilir, ancak rehberler alone geliştiricilerin hızlı hareket ettiği IDE içinde fazla yardımcı olmaz. Araç ve iş akışı katmanında yönetim olmadan, ekipler, kurumsal standartlara uymayan, fazla izin verilen araçlar riskini taşır. Bu araçlar kendiliğinden kötü değildir, ancak onları yönetim olmadan benimsemek, geliştirme hızını kontrolsüz bir şekilde ölçeklendirmek anlamına gelir.
Üçüncü ortaya çıkan açıklık, herkesin potansiyel olarak geliştirici olabileceği – “vibe coding” araçlarını kullanan vatandaş geliştiriciler. Bir finans personelinin Claude Code’u kullanarak iç sistemlere bağlanmak ve süreçleri otomatikleştirmesi, potansiyel risk oluşturur ve bugün bile büyük bir kör noktadır.
Backslash, bireysel araçlar yerine tüm AI geliştirme ekosistemini güvence altına almaya odaklanıyor. Bu tam yığın yaklaşımının neden gerekli olduğu ve organizasyonların bu riskleri izole olarak ele almaya devam etmesi durumunda ne olacağı hakkında neler söyleyebilirsiniz?
Risk, yığının herhangi bir ürününde düzgün bir şekilde oturmuş değil. AI-yerli geliştirme, birçok farklı yerde ve birçok farklı araç kullanarak işletilen bir ekosistem sorunudur. IDE, model, ajanlar, MCP sunucuları, dış eklentiler, kimlikler ve bağlı veri kaynakları, neyin inşa edildiğini ve nasıl inşa edildiğini etkiler. Organizasyonlar, araçların göreli güçlerinin çok hızlı bir şekilde değişmesi nedeniyle, tek bir araçta standardize olmuyorlar. Yığının sadece bir noktasını güvence altına alırsanız, riskin sistem boyunca nasıl hareket ettiğini kaçırıyorsunuz.
Riskleri izole olarak ele almak, parçalı savunmalara ve tehlikeli kör noktalara yol açar. Kod tarayıcısını güçlendirebilirsiniz, ancak modele tehlikeli bağlam sağlayan MCP sunucusunu göz ardı edebilirsiniz. Bu, sadece uygulamalarınızı riske atmaz, aynı zamanda tüm kuruluşunuzu riske atabilir. Bu nedenle, tam yığın görünürlüğü ve tüm AI geliştirme ekosisteminin gerçek zamanlı korumasının doğru yaklaşım olduğuna inanıyoruz. Aksi takdirde, organizasyonlar sadece semptomları çözerken, gerçek saldırı yüzeyi altında devam eder.
Prompting, yeni bir programlama katmanı olarak ortaya çıkıyor. Prompt’ları güvence altına almak ve.prompt enjeksiyonu, veri sızıntısı veya manipülasyonu gibi sorunları önlemek için organizasyonlar nasıl yaklaşmalıdır?
Prompt’lar, mantık ve davranışları giderek daha fazla şekillendiriyor. Çoğu durumda, effectively yeni bir kontrol düzlemi için yazılım oluşturmayı temsil ediyorlar. Bu, politika, izleme ve güvenlik duvarlarına ihtiyaç duydukları anlamına gelir, tıpkı kod veya altyapı tanımları gibi. Pratik olarak, bu, prompt’lara erişimi sınırlamak ve hangi aşağı akış eylemlerini tetikleyebileceklerini belirlemek anlamına gelir. Ayrıca, güvenlik ve kalite beklentileriyle uyumlu prompt kurallarını tanımlamak, duyarlı verilerin context pencereleri aracılığıyla açığa çıkmasını önlemek ve.prompt enjeksiyonu veya dolaylı talimat gaspı gibi manipülasyon girişimlerini izlemek anlamına gelir. Daha geniş anlamıyla, prompt’ları güvence altına almak, geliştiricilere ve ajanlara “dikkatli olun” talimatı vermekle değil, prompting’in gerçekleştiği ortamda kontrolleri yerleştirmekle ilgili olduğunu anlamak anlamına gelir.
MCP sunucuları ve ajan Becerileri, sistemler arasında dinamik bağlantılar tanıtıyor. Güvenlik açısından, AI destekli geliştirmenin en önemli yeni risk vektörü olarak temsil ediyorlar mı?
MCP sunucuları ve ajan Becerileri, AI sistemlerinin gerçek dünya ile nasıl bağlandığını ve etkileşime girdiğini tanımlayan önemli bir yeni risk katmanını temsil ediyor. Becerileri, bir ajanın neler yapabileceğini tanımlar, जबकi MCP, bağlam ve sistemlere erişimini genişletir. Birlikte, ajanın gerçek davranışını şekillendiriyorlar. Bu katmanlar sıkı bir şekilde kontrol edilmezse, organizasyonlar, AI araçlarının neler yapabileceğini ve gerçekten neler yaptığını görme yeteneğini kaybeder. Kod oluşturmadan ziyade eyleme geçmek, bu alanda neden bu kadar kritik bir alan olduğunu açıklıyor ve bunları birbirine bağladığınızda daha da öngörülemez hale gelirler.
Birincil temanızdan biri “evet departmanı” olmak – geliştiricileri yavaşlatmadan güvenlik sağlamak. Geliştirici hızını gerçek zamanlı koruma ile nasıl dengelemelisiniz?
Güvenlik, geç veya geliştiricilerin gerçekten nasıl çalıştığından kopuk olduğunda sürtünme oluşturur. İş akışına doğrudan gömülü olduğunda ve gerçekten önemli olan şeylere odaklandığında çok daha etkili olur. Bu, Backslash’ın başlangıcından beri düşünce biçimidir ve şimdi AI destekli geliştirmede daha da önemlidir.
Pratikte, bu, geliştiricilere gerçek riski temsil eden birkaç sorunu ortaya koymak, teorik olarak şüpheli görünen her şeyi geliştiricilere boğmak anlamına gelir. Bu, IDE ve ajan iş akışında politika uygulama, sonradan değil, anlamına gelir. Ayrıca, geliştiricilerin hangi araçları kullandığını, hangi izinlere sahip olduğunu ve bir şey anormal olduğunda bilmesini sağlayan şeffaf, deterministik güvenlik duvarları oluşturmak anlamına gelir. Hedef, AI benimsemesini yavaşlatmak değil, organizasyonların kontrolü kaybetmeden güvenle benimsemelerine yardımcı olmaktır. Gerçek terimlerle, bu, bir geliştiricinin öncekinden daha az hata yapma alanı olacağı, ancak bir hata yaparsa, bunun nhanh bir şekilde yakalanacağı ve ele alınacağı anlamına gelir.
AI araçlarını kullanarak yazılım oluşturan teknik olmayan kullanıcıların sayısında artış görüyoruz. Vibe coding yapan non-geliştiricilerin yükselişi tehdit manzarasını nasıl değiştiriyor?
Tehdit manzarasını iki şekilde genişletir. Birincisi, güvenlik etkilerini düşünmeden yazılım benzeri çıktılar üretebilecek kişilerin sayısını dramatik bir şekilde artırır. İkincisi, araçların geliştirme hissini konuşmaya benzer ve düşük sürtünme olarak hissettirdiği için yanlış bir güvenlik hissi yaratır.
Bu, daha fazla uygulamanın, otomasyonun ve entegrasyonun, güvenliği dikkate almayan kişiler tarafından oluşturulacağı anlamına gelir. Başka bir deyişle, saldırı yüzeyi, sadece AI’nin daha fazla kod yazması nedeniyle değil, aynı zamanda daha fazla kişinin, temel mühendislik disiplini uygulamadan yazılım benzeri sistemler ve iş akışları oluşturabilmesi nedeniyle genişliyor. Bu, görünürlük ve yerleşik güvenlik önlemlerinin daha da önemli hale geldiği anlamına gelir, çünkü artık güvenlik bilgisinin oluşturma noktasında varsayılabilir değildir.
12 ila 24 ay ilerisini düşünün, AI-yerli geliştirme iş akışları nedeniyle ortaya çıkmasını beklediğiniz saldırı veya açıklık türleri nelerdir?
AI-yerli geliştirme iş akışları nedeniyle, birçok ortak kod açığının önlenmesini veya AI tarafından daha iyi LLM’ler veya “harness” tarafından daha iyi gömülü prompt kuralları aracılığıyla düzeltilmesini bekliyorum. AI destekli SAST ve SCA (bunlardan bazıları AI platformu satıcıları tarafından sağlanacaktır, örneğin Claude Code Güvenlik ve Proje Glasswing) tarafından takip edilecektir.
Ancak, denetimsiz ve gözetimsiz AI araçlarının uygulama geliştirmesinde kullanılmasına bağlı olarak çok daha kötü sonuçlar bekliyorum – örneğin, OpenClaw gibi açık kaynak ajanlar, güvenlik için çok kötü varsayılan ayarları ve güvenlik bilgisinin coşkularını aşan bir kullanıcı tabanını birleştirir.
Bu nedenle, saldırganların geliştirme ekosistemini hedef almaya odaklanacaklarını, yani AI’nin bir parçası olduğu yazılım oluşturma sürecini manipüle edeceklerini ve yazılımı asla dağıtmadan önce tehlikeye atacaklarını düşünüyorum.
Harika röportaj için teşekkür ederiz, daha fazla bilgi edinmek isteyen okuyucular Backslash Güvenlik‘i ziyaret edebilir.












