Connect with us

Röportajlar

Sandy Dunn, SPLX’de CISO – Röportaj Serisi

mm

Sandy Dunn, SPLX’de CISO, 20 yılı aşkın süredir sağlık ve startup’larda经验 sahibi bir CISO’dur ve QuarkIQ aracılığıyla CISO danışmanlığı yapmaktadır. OWASP Top 10 için LLM Uygulamaları Siber Güvenlik ve Yönetim Kontrol Listesi’ni yönetiyor ve OWASP AI Exchange, OWASP Top 10 için LLM ve Bulut Güvenlik Birliği’ne katkıda bulunuyor. Boise Eyalet Üniversitesi’nde Adjunct Siber Güvenlik Profesörü olarak görev yapıyor ve Boise Eyalet Üniversitesi’nin Pervasive Siber Güvenlik Enstitüsü’nün sık sık konuşmacı, danışman ve yönetim kurulu üyesi olarak görev alıyor. Sandy, SANS’tan bilgi güvenliği yönetimi alanında yüksek lisans derecesine ve CISSP,多个 SANS GIAC kimlik bilgileri, Security+, ISTQB ve FAIR dahil olmak üzere birçok sertifikaya sahiptir.

SPLX bir siber güvenlik şirketidir ve otomatik kırmızı takım, çalışma zamanı koruması, yönetim, düzeltme, tehdit denetimi ve model güvenliği yoluyla AI sistemleri için uçtan uca koruma sağlar. Platformu, bir saatin altında binlerce düşman simülasyonu çalıştırarak güvenlik açıklarını tespit eder, sistem promt’larını dağıtımdan önce güçlendirir ve Agentic Radar adlı, çoklu ajent AI iş akışlarında riskleri haritalamak ve analiz etmek için kullanılan bir açık kaynak aracı içerir.

Siber güvenlik ve AI’nin kesişim noktasına ilk olarak ne sizi çekti ve bu yol sizi SPLX’deki role ve OWASP ile olan katılımınıza nasıl götürdü?

AI, ChatGPT’den yıllar önce siber güvenlik konuşmalarının bir parçası olmuştu, ancak çoğu zaman vaat edileni karşılayamıyormuş gibi görünüyordu. Ancak lanç edildiğinde, etkisiz kalacağından endişe ediyorum, ancak tam tersi bir tepki verdim. ChatGPT’yi ilk kullandığımda, neler yapabileceğinden hem şaşırdım hem de düşman saldırıları veya gizlilik ihlali için nasıl nhanh chóng silahlandırılabileceğinden korktum. O an bir ateş yakıldı. LLM’ler hakkında her bulabildiğim araştırma makalesini okudum, her ilgili Slack ve Discord topluluğuna katıldım ve kendi deneylerimi yaptım. OWASP Top 10 için LLM kanallarında bir süre gizlendim ve ilk liste yayımlandığında, bunun önemli bir kilometre taşı olduğunu anladım. Ancak bir CISO olarak, güvenlik ekiplerine daha fazla bilgiye ihtiyaç duyduğunu hissettim. İnsanlara endişe edecek şeyler söylemiştik, ancak ne yapmaları gerektiğini söylemedik. Steve Wilson’a, proje liderine, bir “LLM Güvenlik CISO Kontrol Listesi” oluşturmayı önerdim. Sonra bu, ilk OWASP GenAI alt projesi oldu ve birçok ek alt projeyi teşvik etti.

Bu çalışmayla, Kristian Kamber ve Ante Gojsalic (SPLX’nin kurucuları) ile tanıştım ve ayrıca birçok AI güvenlik startup’ına danışmanlık yaptım, bazıları umut verici fikirlere sahipti, bazıları daha az. O sırada, bir B2B sohbet botu şirketinde CISO’dum ve kapsamlı bir AI düşman testi playbook’u oluşturuyordum. SPLX’nin demo’ sunu gördüğümde, hemen anladım ki, düşman testini operasyonelleştirme konusunda uğraştığım sorunu çözmüşlerdi. SPLX bir CISO’ya ihtiyaç duyduğunda, harika bir şirketin ve önemli zorlukları çözen muhteşem insanların bir parçası olmak için fırsat yakaladım.

SPLX’de CISO olarak, özellikle ajent AI ile ilgili olarak, en yeni saldırı tekniklerini neler keşfediyorsunuz?

GenAI sistem tasarımı nuansları nedeniyle, GenAI güvenlik açıklarını ve saldırılarını completely ortadan kaldırmak mümkün değildir. MINJA gibi Memory Poisoning saldırıları bunun recent bir örneğidir. MINJA ile saldırganlar, crafted etkileşimler yoluyla bir ajanın bellek bankalarını gizlice bozabilir, zararlı “hatıralar” yerleştirebilir ve sonra zararlı veya tehlikeli davranışlara neden olabilir. Bir başka örnek de Echo Chamber saldırısıdır. Burada bir saldırgan, bir ajanı, tekrar edilen kötü niyetli bağlamla konuşma döngüleri oluşturarak bypass edebilir. Araştırmacılar, güvenlik mekanizmalarını,多lu zararlı talimatları üzerinden atlatabildiler.

İndirect ve cross-modal prompt injection bir başka örnektir. Zararlı talimatlar, ajanların tükettiği dış içerik gibi resimlerde veya belgelerde gizlenebilir. Bu talimatlar, kullanıcıdan doğrudan girdi almadan, özerk kararları ele geçirebilir.

SPLX platformu, LLM’ye özgü tehditleri nasıl tespit eder ve bunlara nasıl yanıt verir, özellikle prompt injection veya adversarial jailbreak saldırıları gibi durumlarda?

SPLX, LLM destekli uygulamaları ve çoklu ajent sistemlerini, geliştirme aşamasından itibaren gerçek zamanlı operasyona kadar, uçtan uca korumaya yönelik bir güvenlik platformudur. AI Runtime Protection, girişleri ve çıkışları sürekli olarak izleyerek ve filtreleyerek, bu tehditleri oluştuğunda durdurmayı amaçlar. AI için bir gerçek zamanlı güvenlik duvarı gibi davranır ve AI’nin davranışsal sınırlarını zorlar. SPLX’nin dinamik algılama motoru, gerçek zamanlı olarak kötü niyetli aktiviteyi işaretler, böylece AI sistemleri güvenli bir şekilde yanıt verir ve amaçlanan sınırlar içinde kalır.

OWASP’nin güncellenen GenAI Güvenlik Top 10’u, sistem-prompt sızıntısı ve vektör-veritabanı güvenlik açıkları gibi ana riskleri genişletiyor. Bu yeni tehditler, düşman saldırısı manzarasının evrimini nasıl yansıtıyor?

2025 OWASP Top 10 güncellemeleri, LLM’ler ve üretken AI teknolojilerinin gerçek dünya senaryolarında nasıl kullanıldığının gelişen anlayışını yansıtıyor. LLM’ler için sadece on güvenlik tehdidi olmadığını, ancak en önemli on tanesini belirlemenin amaçlandığını belirtmek önemlidir. Büyük değişiklikler, LLM07 Güvenli Eklenti Tasarımı’nın Tedarik Zinciri’nde dahil edildiği ve LLM010 Model Çalınmasının, 2025 listesi için Sınırsız Tüketim’de dahil edildiği yerlerdir. Bu, Sistem-Prompt Sızıntısı ve Vektör-Veritabanı Güvenlik Açıkları’nın eklenmesine olanak tanıdı:

1. Sistem-Prompt Sızıntısı, sistem promt’ının ifşa edilmesinin, güvenlik sınırlarını, mantık akışlarını veya LLM promt’larına gömülü sırları ortaya çıkarabileceği tehdidini tanımlar.

2. Vektör-Veritabanı Güvenlik Açıkları, RAG sistemlerinde, çoklu kiracılı veri sızıntısı, gömme tersine çevirme veya zehirlenmiş belgelerin ortaya çıkardığı tehlikeli çıktıları işaret eder.

Güncellemeler, AI odaklı saldırıların, fırsatçı prompt saldırılarından, tüm AI tedarik zincirini hedef alan sofistike saldırılara evrimleştiğini gösteriyor. Modern saldırılar, AI sisteminin tamamının stratejik düşünmesini, kalıcılık, ölçek ve sistemik etkiye odaklanmasını ortaya koyuyor.

Genel olarak, agentic mimarilerin genişletilmiş kapsamı, bir başka kritik gelişmeyi tanır. AI sistemleri daha fazla özerklik ve karar alma yetenekleri kazandıkça, güvenlik ihlallerinin potansiyel sonuçları üssel olarak artar. İnsan gözetimini azaltırken, daha güçlü uygulamaları etkinleştirmek, başarılı saldırıların etkisini katlar.

Agentic AI’yi bugün kullanan işletmelerde en çok gözden kaçan güvenlik açıklarını nasıl görüyorsunuz?

En çok gözden kaçan sorun, geleneksel yazılım ve sistem dağıtımlarında karşılaştığımız aynı zorluktur: en düşük izin ilkesi. İnsan kullanıcıları ve hizmet hesapları için en düşük izin ile masih mücadele ederken, işletmeler şimdi ajent kimliği ve erişimini tam olarak anlamak ve çözmek için yeni bir zorlukla karşı karşıya kalıyor. Ajentleri, geniş kapsamlı izinlerle dağıtıyoruz, belgeleri okumak, dış API’lere erişmek ve hatta sistemleri değiştirmek için. Bu, modelin kendisinde bir teknik hata değil, temel bir mimari hatadır. Aşırı izin verilen bir ajent, büyük miktarda veri çıkarmaktan, finansal işlemleri başlatmaya kadar büyük zararlara neden olabilir.

Bir başka sıkça gözden kaçan veya ihmal edilen sorun, ajentler arasındaki “güven” ilişkisidir. Agentic sistemlerde, ajentlerin birbirleriyle iletişim kurması ve işbirliği yapması amaçlanmaktadır. Ajentlerin birbirlerini taklit edebileceği, temelde bir “Ajent-Aradaş” saldırısı olan yeni bir saldırı sınıfıyla karşı karşıyayız. Bu, mimari düzeyde bir Truva atı gibi.

İşletme güvenlik ekiplerinin, üretim ortamlarında agentic AI araçlarını dağıtmadan önce, hangi somut adımları atmaları gerekir?

1. Olay yanıt planları ile başlayın. En kötü gün nasıl görünür, sonra güvenlik kontrollerinin ve görünürlüğün yerinde olduğundan emin olmak için geriye doğru çalışın. AI ihlali olduğunda, güvenlik operasyon merkezinizin bir oyun planına ihtiyacı vardır. Kimi bilgilendireceksiniz? Bir ajenti nasıl izole edeceksiniz? Bilinen iyi bir duruma geri dönmek için süreç nedir? Kriz oluşmadan önce bir planınız olmalıdır.

2. Saldırı yüzeyi envanteri ve tehdit değerlendirmesi. Güvenli olmadığınız şeyi bilemezsiniz. İlk adım, tüm AI ajentlerini, kullanılan araçları ve veri erişimini tam bir envantere sahip olmaktır. Hangi verilere dokunuyor? Hangi izinleri var? Çalınması durumunda olası etki nedir? Yüksek etki ve en olası tehditlere öncelik verin. Sonra, risk iştahı hakkında yönetici ekibiyle samimi bir konuşma yapın. AI faaliyetlerinin hızlanması, CISO’ların, risk görevlilerinin, hukuk ekibinin ve yöneticilerin iş hedefleri, risk iştahı ve güvenlik bütçeleri hakkında gerçek bir konuşma yapmalarını zorlayacaktır. Tarihi olarak, minimum bütçe ile minimum olay beklentisi vardı. CISO’lar, genellikle yeterli güvenlik uygulayarak, kuruluşlarını daha az güvenlik olan kuruluşlardan daha az çekici bir hedef haline getirebildiler. AI destekli saldırganlar bu stratejeyi gerçekçi kılmıyor.

3. Güvenlik sınırlarını, en düşük izinleri ve izleme araçlarını uygulayın. Kapsam, herhangi bir ajent dağıtımı için önemlidir. Bir ajanın amacını, sınırlarını ve izinlerini tanımlayın. Bir ajanı tüm SharePoint kütüphanenize erişim izni vermemelisiniz, sadece bir klasöre ihtiyacı varsa. Bir ajanın hangi API’leri çağırabileceğini ve hangi eylemleri gerçekleştirebileceğini sınırlayan kontroller uygulayın. Bunu, yeni, çok akıllı, sarhoş bir stajyer olarak düşünün. Onların muhteşem yeteneklerine sahip olduklarını anlarsınız, ancak onlara güvenmezsiniz. Şirket içinde ne yapabileceklerini sınırlardınız, önemli hiçbir şeye erişim izni vermezdiniz, ne yaptıklarını izlerdiniz ve onlar tuyệt做memeleri gereken bir şey yapmaya çalıştıklarında alarm sistemleri kurardınız.

4. AI’ye özgü güvenlik yığınını, geleneksel güvenlik yığını ile birleştiren bir güvenlik yığını uygulayın. Geleneksel güvenlik araçları, GenAI sistemleri veya agentic sistemler için tasarlanmamıştı. AI’ye özgü sorunlara yönelik, prompt doğrulama, çıktı temizleme ve ajent davranışının sürekli izlenmesi gibi araçları uygulamanız gerekir. Bu araçlar, GenAI ve agentic sistemlere özgü, ince, anlamsal tabanlı saldırıları tespit edebilmelidir.

5. CI/CD pipeline’ınıza AI’ye özgü kırmızı takım testini entegre edin. Değişikliklerin önemine ve kuruluşunuzun risk iştahına bağlı olarak, ajentlerinizi sürekli olarak güvenlik açıklarına karşı test etmeniz gerekir. Recent GPT-5 güncellemesi, agentic iş akışlarındaki değişikliklerin nasıl yıkıcı olabileceğinin bir örneğidir. Otomatik kırmızı takım testini, geliştirme döngünüzün temel bir parçası haline getirin. Bu, güncelleme ve ajentlerinizi değiştirirken sorunları belirlemenize yardımcı olur.

İşletmelerin, otomatik kırmızı takım testini, CIAM’ı, RAG yönetimini ve izlemeyi GenAI risk yönetim stratejilerine nasıl entegre etmeleri gerekir?

Anahtar, bunları ayrı girişimler olarak değil, birbirini güçlendiren bir çerçeve olarak ele almaktır.

Otomatik kırmızı takım testini temel olarak alın. Tehdit manzarasının evrimine uygun, sürekli advers testlere ihtiyacınız vardır. SPLX platformu, farklı risk kategorileri boyunca binlerce saldırı senaryosunu simüle eder, prompt injection, jailbreak, context manipulation ve tool poisoning için test eder. Kritik nokta, bunu CI/CD pipeline’inizin bir parçası haline getirmektir, böylece her ajent güncellemesi, dağıtımdan önce güvenlik doğrulamasından geçer.

AI sistemleri için CIAM, geleneksel kimlik modellerini yeniden düşünmeyi gerektirir. AI ajentlerine, context ve risk seviyelerine bağlı olarak dinamik olarak ayarlanabilen, granüler izinler gerekir. Ajentin kimliğini, işlediği veriyi, talep ettiği araçları ve tehdit contextini dikkate alan, öznitelik tabanlı erişim kontrolü uygulayın.

RAG yönetimi özellikle kritiktir. Vektör depolarına alınan tüm içerik için veri kökenini izleme uygulayın. Zararlı örnekleri veya belgelerde gömülü kötü niyetli talimatları tespit edebilen içerik doğrulama管道ları uygulayın.

İzleme için, teknik ve davranışsal göstergeleri yakalayan telemetriye ihtiyacınız vardır. Teknik izleme, girdi/çıktı analizi, API çağrı kalıpları ve kaynak tüketimini içerir. Davranışsal izleme, karar kalitesi, görev tamamlama kalıpları ve ajentin tehlikeye girdiğini gösterebilecek etkileşim bağlamına odaklanır.

Entegrasyon önemlidir. Kırmızı takım testi sonuçları, CIAM politikalarını bilgilendirmelidir, izleme sistemleri, RAG yönetim süreçlerine geri bildirimde bulunmalıdır ve tüm bunlar, tüm bu alanlar boyunca sinyalleri korelasyonlayabilen bir merkezi kuruluş risk yönetimi platformu aracılığıyla koordine edilmelidir.

Siber güvenlik liderleri, AI ile ilgili ihlallerin masih erken aşamalarında olmasına rağmen, önümüzdeki 12-18 ay içinde hangi trendleri hazırlamalıdır?

AI altyapısını da içeren tüm tedarik zincirine yönelik saldırıların önemli ölçüde artacağını öngörüyorum. AI tedarik zinciri saldırıları, eğitim veri setlerini zehirlemek, model depolarını tehlikeye atmak veya yazılımlara kötü niyetli kod enjekte etmek için kullanılır.

Derin sahte vishing olayları gibi otonom sosyal mühendislik already bir artış var, ancak tam otonom üretim evrimi beni en çok endişelendiriyor. AI ajentlerinin, çoklu platformlar boyunca, her biri özel hedeflere ve bağlamlara göre uyarlanmış, tam sosyal mühendislik kampanyalarını yönetmesi, geleneksel savunmalara karşı bir güç çarpanı etkisi yaratıyor.

AI yerli saldırıların, makine hızında çalışan saldırıların yükselişini göreceğimize inanıyorum. Geleneksel güvenlik araçları ve insan analistleri, saniyeler içinde karmaşık, çok aşamalı sömürüleri gerçekleştirebilen bir saldırgana yetişemez.

GenAI risklerine yanıt olarak düzenleyici ve uyum çerçevelerinin nasıl evrileceğini öngörüyorsunuz?

Düzenleyici çerçevelerde, inovasyonu hesaba katma ile güvenli geliştirme uygulamaları, şeffaflık ve tedarik zinciri güvenliği üzerine odaklanmaya yönelik büyük bir değişim öngörüyorum.

Veri kökeni ve bütünlüğü üzerinde odaklanmayı bekliyorum. Düzenleyici kurumlar, AI modellerini eğitmek ve güçlendirmek için kullanılan verilerin nereden geldiğini bilmeyi isteyecekler. Verilerin temizlendiğini, hassas bilgileri içermediğini ve zehirlenmediğini kanıtlamanızı isteyecekler.

Son olarak, sektöre özgü düzenlemelerin ortaya çıkacağını düşünüyorum. Finansal bir kuruluşun bir AI ajentini işlemleri işleme için kullanmasıyla, bir sağlık şirketinin bir ajenti teşhis için kullanması arasındaki riskler farklıdır.

Düzenleyiciler, kritik endüstriler için özel standartlar tanımlamaya başlayacaklar, otomatik kırmızı takım testi, insan gözetimi ve AI sistemleri için katı denetim gibi şeyleri gerektirecekler. Bu, yaşam veya ölüm sonuçları olan AI sistemleri için olacaktır.

Boise Eyalet Üniversitesi’nin Pervasive Siber Güvenlik Enstitüsü’nde yardımcı profesör ve yönetim kurulu üyesi olarak, AI güvenlik uzmanlarının bir sonraki neslini nasıl hazırlıyorsunuz ve bugün hızla değişen manzara için en kritik becerileri nasıl görüyorsunuz?

Eleştirel düşünme ve problem çözme becerileri, bir siber güvenlik kariyeri için hala en önemli becerilerdir, ancak siber tehdit istihbarat ekiplerinde bulunan insan psikolojisi ve dilbilim gibi beceriler, artık çeşitli siber güvenlik rollerine de fayda sağlayacaktır.

İnsan ve iletişim becerileri de önemlidir. Siber güvenlik, sadece IT sistemleri değil, insanların işlerini yapmasına, işletmelerin iş hedeflerine ulaşmasına yardımcı olmaktır ve karmaşık teknik riskleri, işletme kararları alabilecek non-teknik paydaşlara tercüme edebilmek ve iletebilmek önemlidir. Siber güvenliğin geleceği, teknik olarak akıllı, ancak aynı zamanda zemine bağlı ve iletişim becerileri güçlü profesyonellere bağlı olacaktır.

Son olarak, AI güvenlik manzarası çok hızlı bir şekilde evrimleşiyor, bu nedenle hızlı bir şekilde öğrenme ve adapte olma yeteneği önemli olacaktır.

Harika bir röportaj ve ayrıntılı bilgi için teşekkür ederiz, daha fazla bilgi öğrenmek isteyen okuyucular SPLX ziyaret edebilirler.

Antoine bir vizyoner lider ve Unite.AI'in kurucu ortağıdır ve AI ve robotik geleceğini şekillendirmek ve tanıtmak için sarsılmaz bir tutkuyla hareket etmektedir. Bir seri girişimci olarak, toplum için elektrik kadar yıkıcı olacağına inandığı AI'nin potansiyeli hakkında sık sık konuşur ve coşkusunu dile getirir.
Bir futurist olarak, bu yeniliklerin dünyamızı nasıl şekillendireceğini keşfetmeye adanmıştır. Ayrıca, Securities.io kurucusudur, bu platform geleceği yeniden tanımlayan ve tüm sektörleri yeniden şekillendiren teknolojilere yatırım yapmaya odaklanmıştır.