Connect with us

AI Güvenliği Bozuk Değil, Yanlış Şeyleri Savunuyoruz

Düşünce Liderleri

AI Güvenliği Bozuk Değil, Yanlış Şeyleri Savunuyoruz

mm

Siber güvenlik endüstrisi, yeni bir teknoloji ortaya çıktığında immediate olarak onu çevirmek için duvarlar inşa etme eğilimindedir. Bulut için yaptık, konteynırlar için yaptık ve şimdi AI için yapıyoruz, ancak bu sefer inşa ettiğimiz duvarlar tamamen yanlış yerlerde.

Herhangi bir kuruluş güvenlik incelemesine girin ve aynı öncelikleri duyacaksınız: AI modellerini güvence altına almak, eğitim verilerini korumak, çıktıları doğrulamak ve AI güdümlü kaptanları dağıtmak. Satıcılar, model düzeyindeki kontrolleri odak alan “AI güvenliği” araçları satmak için acele ediyorlar, Örneğin, guardrails, prompt-enjeksiyon savunmaları ve model-izleme platformları.

Ancak saldırganlar AI entegrasyonlarınızı her şeye giden otoyollar olarak kullanıyor.

Hiç Kimse İzlemeyen Gerçek Saldırı Yüzeyi

Kurumsal ortamlar boyunca gözlemlediğimiz bir model, güvenlik ekiplerinin AI geliştirme ortamlarını güvence altına almak için ağır bir şekilde yatırım yaptığını gösteren endişe verici bir hikaye anlatıyor: model erişim kontrolleri, veri yönetim çerçeveleri, MLOps güvenlik araçları. Bu, AI’nizin “kilitli” olduğu konusunda yanlış bir güven duygusu verir.

Ancak gerçek saldırı yüzeyini haritaladığınızda, AI sohbet botlarının genellikle birçok SaaS platformuna OAuth token’ları, aşırı bulut izinlerine sahip API anahtarları ve bir basit prompt enjeksiyonundan üretim altyapısına doğrudan yollar oluşturabilecek kimlik güven ilişkileri olduğunu görürsünüz. Modeller kendileri güvende olabilir, ancak içinde yaşadıkları ekosistemler genellikle tamamen açıktır ve bu bir kenar durumu değildir.

Kuruluşlar şimdi ortalama 130+ SaaS uygulaması kullanıyor ve AI entegrasyonları kimlik sağlayıcıları, bulut altyapısı, veritabanları ve iş açısından kritik sistemleri kapsıyor. Her entegrasyon potansiyel bir saldırı yolu ve her API bağlantısı saldırganların aktif olarak araştırtığı bir güven sınırıdır.

Sorun, AI güvenlik araçlarımızın bozuk olması değil, bireysel bileşenleri güvence altına alırken saldırganların bunları birbirine bağlamasını sağlıyor.

Neden Model-Merkezli Güvenlik Amacı Kaçırır

AI güvenliğine yönelik mevcut yaklaşım, modern saldırıların nasıl çalıştığı konusunda temel bir yanlış anlama üzerine işletilir. AI’ı, bir veritabanını veya web uygulamasını güvence altına almak gibi, korumaya ihtiyaç duyan bağımsız bir varlık olarak ele alırız. Ancak üretimdeki AI izolasyonda नहin var. Bir kimlik, izin, API ve veri akışları karmaşık bir grafının bir düğümüdür.

Tipik bir kuruluş AI dağıtımı düşünün. Google Workspace’e erişimi olan bir AI aracınız var. Salesforce ile API’ler aracılığıyla bağlantılı. Slack ile bildirimler için entegre edilmiş. AWS S3 kovalarından veri çekiyor. Okta veya Azure AD aracılığıyla kimlik doğrulaması yapıyor. ServiceNow’da iş akışlarını tetikliyor.

Geleneksel AI güvenliği, modelin kendisine odaklanır: güvenlik durumunu, prompt doğrulamasını, çıktı güvenliğini. Ancak saldırganlar entegrasyonlara odaklanıyor: hangi hizmet hesaplarını tehlikeye atabilirler, hangi API manipülasyonlarından pivot olabilirler, hangi güven sınırlarını ihlal edebilirler.

Saldırı, AI modeliyle başlamıyor veya bitmiyor. Model sadece giriş noktasıdır.

Saldırı Yolları Ürün Sınırlarına Saygı Duymaz

Burada çoğu kuruluş takıldı. Her biri tek bir domaine görünürlük sağlayan güvenlik araçlarını dağıtmışlardır. Bir araç bulut izinlerini izler. Bir diğeri SaaS yapılandırmalarını takip eder. Üçüncüsü kimlik yönetimini yönetir. Dördüncüsü güvenlik açığı yönetimini ele alır.

Her araç size puzzle’ın bir parçasını gösterir. Hiçbiri parçaların nasıl bağlandığını göstermez.

Gartner’a göre, kuruluşlar şimdi ortalama 45+ güvenlik aracı kullanıyor. Buna rağmen, saldırganlar bu alanlar boyunca yanlış yapılandırmaları zincirleme bir şekilde kullanıyor çünkü hiçbir araç tam saldırı yolunu göremez.

Bir saldırganın AI modelinizde kritik bir güvenlik açığı bulması gerekmez. Sadece bir zincir bulması gerekir. Belki AI hizmetinize bağlı, yanlış yapılandırılmış bir IAM rolü, bir S3 kovasına izinleri vardır, bu kova bir SaaS uygulamasına kimlik bilgilerini içerir ve bu uygulama üretim ortamınıza yönetici erişimi sağlar.

Her个个 yanlış yapılandırma, güvenlik araçlarınızda “orta” veya “düşük” puan alabilir. Ancak zincirleme bir şekilde bağlandığında? Bu, kritik bir maruz kalma anlamına gelir. Ve bu, her güvenlik alanını ayrı ayrı incelediğiniz sürece tamamen görünmezdir.

Maruz Kalma Yönetimi Zorunluluğu

Bu nedenle, sohbet “AI güvenliğinden” AI entegrasyonlu ortamlar için sürekli tehdit maruz kalma yönetimine kaymalıdır.

AI modellerimizin güvende olup olmadığını sormak yeterli değil. Güvenlik ekiplerinin, bir AI hizmet hesabını tehlikeye attığında bir saldırganın gerçekten neye ulaşabileceğini anlamaları gerekiyor. Bulut, SaaS ve kimlik sistemlerindeki yanlış yapılandırmaların nasıl zincirleme bir şekilde bağlanabileceğine dair görünürlüklerine ihtiyaçları var. AI entegrasyonlarının saldırı yüzeylerini gerçek zamanlı olarak nasıl değiştirdiğini bilmeleri gerekiyor. Ve riskleri, sadece ciddiyet puanlarına değil, gerçek saldırıya dayanarak önceliklendirmeleri gerekiyor.

Çoğu güvenlik programı hala riskleri izole olarak önceliklendirmekte, CVSS puanlarını ve uyumluluk kontrol listelerini kullanmakta ve bu liste, bir güvenlik açığının gerçekten sizin ortamınızda sömürülebilip sömürülemeyeceğini完全 olarak görmezden gelmektedir.

Bu boşluk, AI sistemlerinde daha da belirgin hale geliyor çünkü bunlar sürekli olarak değişiyor. Yeni entegrasyonlar haftalık olarak ekleniyor. İzinler evrim geçiriyor. API bağlantıları değişiyor. Geçen ayki saldırı yüzeyiniz, bugününkü saldırı yüzeyiniz değil, ancak güvenlik değerlendirmeniz muhtemelen aynı kalıyor.

Saldırı-Yolu-Farkında Güvenlik Nasıl Görünür

Üretimdeki AI’ı güvence altına almak, temel olarak farklı bir yaklaşımı gerektirir ve bu, dört ana düşünce değişimine dayanır.

İlk olarak, güvenlik alanları boyunca birleşik görünürlüğe ihtiyacınız vardır. Her güvenlik aracının kendi silosunda çalışmasını bırakın. Bulut güvenliğiniz, kimlik yönetiminiz, SaaS yönetiminiz ve güvenlik açığı tarama araçlarınız, saldırı yolunun parçalarını tutuyor. Gerçek zamanlı olarak veri paylaşmaları gerekiyor, böylece yanlış yapılandırmaların nasıl zincirleme bağlandığını görebilesiniz.

İkincisi, sürekli saldırı yolu simülasyonunu benimseyin. Penetrasyon testlerini veya kırmızı takım egzersizlerini beklemeyin, sömürülebilecek yolları keşfedin. Çevrenizde bir saldırganın nasıl hareket edebileceğini sürekli olarak test edin, teorik ciddiyet puanlarına güvenmek yerine gerçek sömürülebilirliğe odaklanın.

Üçüncüsü, bağlam temelinde önceliklendirin. Bir S3 kovasının yanlış yapılandırılması, sadece halka açık olduğu için kritik değildir. Halka açık ve kimlik bilgilerini içeriyor ve bu kimlik bilgilerine özel erişim var ve bunlar internete açık bir varlıktan erişilebiliyorsa kritiktir. Bağlam, herhangi bir bireysel puandan daha önemlidir.

Dördüncüsü, önleyici düzeltmeye doğru ilerleyin. SOC ekibiniz bir uyarıyı araştırırken, already değerli yanıt süresini kaybetmiş olursunuz. Modern savunma, bir olay meydana gelmeden önce sömürülebilecek yolları kapatma yeteneğini gerektirir, değil sonra.

Göz Ardı Edilemeyecek Uyarı

AI, kurumsal yığının her katmanına gömüldükçe, saldırı yüzeyi güvenlik ekiplerinin elle düşünmesinden daha hızlı genişliyor. AI entegrasyonlarını, onları güvence altına aldığımız hızdan 10 kat daha hızlı ekliyoruz.

AI’ı izole olarak güvence altına alıyorsanız, modeli korurken ekosistemini görmezden geliyorsanız, already geri kaldınız. Saldırganlar araçlara değil, yollara odaklanıyor. Bireysel güvenlik açıklarını sömürmüyorlar, yanlış yapılandırmaları zincirleme bir şekilde bağlıyorlar.

AI’ı başarıyla güvence altına alacak kuruluşlar, en fazla AI güvenlik aracına sahip olanlar olmayacak. AI güvenliğinin tüm saldırı yüzeyinizdeki maruz kalma yönetiminden ayrılmaz olduğunu anlayanlar olacak.

Model güvenliği, temel gereksinimdir. Önemli olan, bir AI entegrasyonunu tehlikeye attığınızda bir saldırganın neye ulaşabileceğini anlamaktır. Güvenlik ekipleri, tüm ortamınız boyunca, sürekli olarak ve gerçek zamanlı olarak bunu cevaplayamadıkları sürece, AI’ı güvence altına almıyorlar. Sadece duvarların doğru yerlerde inşa edildiğini umuyorlar.

Piyush Sharma, Tuskira'nın Kurucu Ortağı ve CEO'su, bilgisayar bilimi alanında lisans derecesi ve MBA ile desteklenen siber güvenlik alanında iki thập yıllık uzmanlığa sahiptir. İki başarılı çıkış yapan bir seri girişimci olan Piyush, Symantec ve Tenable'de dahil olmak üzere önemli ürün ve iş liderliği rollerini üstlenmiştir. Ayrıca Accurics'in CEO'su ve kurucu ortağı olarak görev yaptı, daha sonra Tenable Inc. tarafından satın alındı. Başarılı bir mucit olan Piyush, siber güvenlik alanında bir düzine patent sahibi olup, bu alandaki yenilikçi katkılarını göstermektedir.