Bizimle iletişime geçin

Düşünce Liderleri

Yapay Zeka Güvenliği Bozuk Değil, Sadece Yanlış Şeyleri Savunuyoruz

mm

Siber güvenlik sektörünün yeni bir teknoloji ortaya çıktığında uyguladığı bir yöntem var: Hemen etrafına duvarlar örmeye başlıyoruz. Bunu bulut teknolojisiyle, konteyner teknolojisiyle ve şimdi de yapay zekayla yapıyoruz; ancak bu sefer ördüğümüz duvarlar tamamen yanlış yerlerde.

Günümüzde herhangi bir kurumsal güvenlik incelemesine katılsanız, aynı öncelikleri duyarsınız: yapay zeka modellerinin güvenliğini sağlamak, eğitim verilerini korumakÇıktıları doğrulamak ve yapay zeka destekli yardımcı pilotları devreye almak gibi işlemler için satıcılar, güvenlik önlemleri, anlık müdahale savunmaları ve model izleme platformları gibi yalnızca model düzeyindeki kontrollere odaklanan "yapay zeka güvenliği" araçlarını satmak için acele ediyorlar.

Ancak saldırganlar, yapay zeka entegrasyonlarınızı diğer her şeye erişim sağlayan otoyollar olarak kullanıyorlar.

Kimsenin İzlemediği Gerçek Saldırı Yüzeyi

Kurumsal ortamlarda sürekli olarak gözlemlediğimiz bir örüntü, güvenlik ekiplerinin yapay zeka geliştirme ortamlarını güvence altına almak için yoğun yatırımlar yaptığına dair endişe verici bir tablo ortaya koyuyor: model erişim kontrolleri, veri yönetişim çerçeveleri, MLOps güvenlik araçları. Bu durum, yapay zekalarının "güvenli bir şekilde korunduğuna" dair yanlış bir güven duygusu yaratıyor.

Ancak gerçek saldırı yüzeyini haritalandırdığınızda, yapay zekâ sohbet botlarının genellikle düzinelerce SaaS platformuna ait OAuth token'larına, aşırı bulut izinlerine sahip API anahtarlarına ve basit bir komut istemi enjeksiyonundan üretim altyapısına doğrudan yollar oluşturabilen kimlik güven ilişkilerine sahip olduğunu görürsünüz. Modellerin kendileri güvenli olabilir, ancak içinde bulundukları ekosistemler genellikle son derece açıktır ve bu istisnai bir durum değildir.

Günümüzde işletmeler ortalama 130'dan fazla SaaS uygulaması kullanıyor ve yapay zeka entegrasyonları kimlik sağlayıcıları, bulut altyapısı, veritabanları ve iş açısından kritik sistemleri kapsıyor. Her entegrasyon potansiyel bir saldırı yolu, her API bağlantısı ise saldırganların aktif olarak yokladığı bir güven sınırı oluşturuyor.

Sorun, yapay zekâ güvenlik araçlarımızın bozuk olması değil. Sorun şu ki, biz tek tek bileşenleri güvence altına alırken, saldırganlar bunlar arasındaki bağlantıları istismar ediyor.

Model Odaklı Güvenlik Neden Asıl Noktayı Kaçırıyor?

Yapay zekâ güvenliğine yönelik mevcut yaklaşım, modern saldırıların nasıl işlediğine dair temel bir yanlış anlamaya dayanmaktadır. Yapay zekâyı, bir veritabanını veya web uygulamasını güvence altına aldığımız gibi, korunmaya ihtiyaç duyan bağımsız bir varlık olarak ele alıyoruz. Ancak üretim ortamındaki yapay zekâ izole bir şekilde var olmaz. Kimlikler, izinler, API'ler ve veri akışlarından oluşan karmaşık bir grafiğin bir düğümüdür.

Tipik bir kurumsal yapay zeka dağıtımını ele alalım. Google Workspace'inize erişimi olan bir yapay zeka ajanı var. API'ler aracılığıyla Salesforce'a bağlı. Bildirimler için Slack ile entegre. AWS S3 kovalarından veri çekiyor. Okta veya Azure AD üzerinden kimlik doğrulaması yapılıyor. ServiceNow'da iş akışlarını tetikliyor.

Geleneksel yapay zeka güvenliği, modelin kendisine odaklanır: güvenlik duruşu, hızlı doğrulama, çıktı güvenliği. Ancak saldırganlar entegrasyonlara odaklanır: ele geçirilmiş hizmet hesapları aracılığıyla nelere ulaşabilecekleri, API manipülasyonlarıyla nereye yönelebilecekleri, istismar edilmiş entegrasyonlar aracılığıyla hangi güven sınırlarını aşabilecekleri.

Saldırı yapay zeka modeliyle başlamaz veya bitmez. Model sadece giriş noktasıdır.

Saldırı Yolları Ürün Sınırlarına Saygı Duymaz

Çoğu kuruluşun takıldığı nokta burası. Her biri tek bir etki alanına görünürlük sağlayan güvenlik araçları kullanıyorlar. Bir araç bulut izinlerini izliyor. Diğeri SaaS yapılandırmalarını takip ediyor. Üçüncüsü kimlik yönetimini yönetiyor. Dördüncüsü ise güvenlik açığı yönetimini ele alıyor.

Her araç size bulmacanın kendi parçasını gösterir. Ama hiçbiri parçaların nasıl birleştiğini göstermez.

Gartner'a göreGünümüzde kuruluşlar ortalama 45'ten fazla güvenlik aracı kullanıyor. Ancak bu devasa yatırıma rağmen, saldırganlar bu alanlardaki yanlış yapılandırmaları başarıyla bir araya getiriyor çünkü tek bir araç saldırının tüm yolunu göremiyor.

Saldırganın yapay zeka modelinizde kritik bir güvenlik açığı bulmasına gerek yok. Sadece bir zincirleme reaksiyon bulması yeterli. Belki de yapay zeka hizmetinize bağlı, yanlış yapılandırılmış bir IAM rolü, üretim ortamınıza yönetici erişimi olan bir SaaS uygulamasına ait kimlik bilgilerini içeren bir S3 kovasına erişim iznine sahip olabilir.

Tek tek yapılan her bir yapılandırma hatası, güvenlik araçlarınızda "orta" veya "düşük" puan alabilir. Ancak zincirleme olarak bir araya geldiklerinde durum kritik bir güvenlik açığı oluştururlar. Ve her bir güvenlik alanını ayrı ayrı incelerseniz tamamen görünmez kalırlar.

Maruz Kalma Yönetimi Zorunluluğu

Bu nedenle, tartışmanın "yapay zeka güvenliği"nden "yapay zeka entegre ortamlar için sürekli tehdit maruziyeti yönetimi"ne kayması gerekiyor.

Yapay zekâ modellerimizin güvenli olup olmadığını sormak yeterli değil. Güvenlik ekiplerinin, bir saldırganın bir yapay zekâ hizmet hesabını ele geçirmesi durumunda gerçekte nelere ulaşabileceğini anlamaları gerekiyor. Bulut, SaaS ve kimlik sistemlerindeki yanlış yapılandırmaların nasıl birbirine bağlanabileceğine dair görünürlüğe ihtiyaç duyuyorlar. Yapay zekâ entegrasyonlarının saldırı yüzeylerini gerçek zamanlı olarak nasıl değiştirdiğini bilmeleri gerekiyor. Ve riskleri yalnızca ciddiyet puanlarına göre değil, gerçek saldırı olasılığına göre önceliklendirmeleri gerekiyor.

Çoğu güvenlik programı, CVSS puanları ve uyumluluk kontrol listeleri kullanarak riskleri hâlâ tek tek önceliklendiriyor ve bir güvenlik açığının belirli ortamınızda gerçekten istismar edilebilir olup olmadığını tamamen göz ardı ediyor.

Bu fark, sürekli değişen yapay zeka sistemlerinde daha da belirgindir. Her hafta yeni entegrasyonlar ekleniyor. İzinler gelişiyor. API bağlantıları değişiyor. Geçen ayki saldırı yüzeyiniz bugünkü saldırı yüzeyinizle aynı değil, ancak güvenlik değerlendirmeniz muhtemelen aynıdır.

Saldırı Yolu Bilinçli Güvenlik Gerçekte Nasıl Görünüyor?

Üretim ortamında yapay zekanın güvenliğini sağlamak, temelde farklı bir yaklaşım gerektirir ve bu da düşünce biçiminde dört önemli değişikliğe dayanır.

Öncelikle, güvenlik alanlarında birleşik bir görünürlüğe ihtiyacınız var. Her güvenlik aracının kendi başına çalışmasını istemeyi bırakın. Bulut güvenliğiniz, kimlik yönetimi, SaaS yönetimi ve güvenlik açığı tarama araçlarınızın her biri saldırı yolunun parçalarını içeriyor. Yanlış yapılandırmaların nasıl zincirleme reaksiyona girdiğini görebilmeniz için gerçek zamanlı olarak veri paylaşmaları gerekiyor.

İkinci olarak, sürekli saldırı yolu simülasyonunu benimseyin. Saldırıya açık yolları keşfetmek için sızma testlerini veya kırmızı ekip tatbikatlarını beklemeyin. Teorik şiddet puanlarına güvenmek yerine, gerçek saldırı olasılığına odaklanarak, bir saldırganın ortamınızda nasıl hareket edebileceğini sürekli olarak test edin.

Üçüncüsü, bağlama göre önceliklendirme yapın. Yanlış yapılandırılmış bir S3 kovası, yalnızca herkese açık olduğu için kritik değildir. Eğer herkese açık ise, kimlik bilgileri içeriyorsa, bu kimlik bilgileri ayrıcalıklı erişime sahipse ve internete açık bir varlıktan erişilebiliyorsa kritiktir. Bağlam, herhangi bir bireysel puandan daha önemlidir.

Dördüncüsü, önleyici iyileştirmeye yönelin. SOC ekibiniz bir uyarıyı araştırırken, zaten değerli müdahale süresini kaybetmiş olursunuz. Modern savunma, bir olaydan sonra değil, istismar edilebilir yolları silah haline gelmeden önce kapatma yeteneğini gerektirir.

Göz ardı edemeyeceğimiz uyarı

Yapay zekâ, kurumsal yığının her katmanına entegre oldukça, saldırı yüzeyi güvenlik ekiplerinin manuel olarak değerlendirebileceğinden daha hızlı genişliyor. Yapay zekâ entegrasyonlarını, güvenliklerini sağladığımız hızın 10 katı hızla ekliyoruz.

Yapay zekayı izole bir şekilde koruyorsanız, modelin kendisini korurken içinde çalıştığı ekosistemi göz ardı ediyorsanız, zaten geride kalmışsınız demektir. Saldırganlar araçlarla değil, yollarla düşünürler. Bireysel güvenlik açıklarından yararlanmazlar. Tüm ortamınızdaki yanlış yapılandırmaları birbirine bağlarlar.

Yapay zekâyı başarıyla güvence altına alacak işletmeler, en fazla yapay zekâ güvenlik aracına sahip olanlar değil, yapay zekâ güvenliğinin tüm saldırı yüzeylerindeki risk yönetimiyle ayrılmaz bir şekilde bağlantılı olduğunu anlayanlar olacaktır.

Model güvenliği olmazsa olmazdır. Önemli olan, bir saldırganın yapay zeka entegrasyonunu tehlikeye attığında nelere ulaşabileceğini anlamaktır. Güvenlik ekipleri bunu sürekli, gerçek zamanlı olarak ve tüm ortamlarında yanıtlayana kadar yapay zekayı güvence altına almıyorlar. Sadece kurdukları duvarların doğru yerlerde olduğunu umuyorlar.

Piyush Sharma, Kurucu Ortak ve CEO'su TuskiraPiyush, Bilgisayar Bilimleri Lisansı ve MBA derecesine sahip olup, siber güvenlik alanında yirmi yılı aşkın bir uzmanlığa sahiptir. İki başarılı şirket satışı gerçekleştirmiş seri bir girişimci olan Piyush, Symantec ve Tenable dahil olmak üzere önemli ürün ve iş liderliği rollerinde bulunmuştur. Ayrıca, daha sonra Tenable Inc. tarafından satın alınan Accurics'in CEO'su ve kurucu ortağı olarak görev yapmıştır. Başarılı bir mucit olan Piyush, siber güvenlik alanına yaptığı yenilikçi katkıları gösteren bir düzine patente sahiptir.