Bizimle iletişime geçin

Siber güvenlik

OpenAI, yapay zeka tarayıcılarının hiçbir zaman tamamen güvenli olmayabileceğini kabul etti.

mm

OpenAI bir yayınladı güvenlik blog yayını 22 Aralık'ta yayınlanan ve çarpıcı bir itiraf içeren açıklamada, yapay zekâ tarayıcılarına yönelik anlık enjeksiyon saldırılarının "asla tam olarak çözülemeyebileceği" belirtildi. Bu itiraf, şirketin lansmanından sadece iki ay sonra geldi. ChatGPT AtlasOtonom ajan yeteneklerine sahip tarayıcısı.

Şirket, hızlı enjeksiyonu "internet üzerindeki dolandırıcılık ve sosyal mühendislik"e benzetti; yani savunmacıların ortadan kaldırmak yerine yönettiği kalıcı tehditlere. İnternette kendi adlarına gezinmek için yapay zekâ ajanlarına güvenen kullanıcılar için bu çerçeve, ne kadar özerkliğin uygun olduğu konusunda temel soruları gündeme getiriyor.

OpenAI'nin Ortaya Çıkardıkları

Blog yazısı, OpenAI'nin Atlas için geliştirdiği savunma mimarisini, kötü niyetli aktörler onları bulmadan önce güvenlik açıklarını avlayan, takviyeli öğrenmeyle desteklenen bir "otomatik saldırgan" da dahil olmak üzere açıklıyor. Şirket, bu dahili kırmızı ekibin "insanlarla yapılan kırmızı ekip çalışmamızda veya harici raporlarda yer almayan yeni saldırı stratejileri" keşfettiğini iddia ediyor.

Bir gösterimde, kötü amaçlı bir e-postanın, kullanıcının gelen kutusunu kontrol eden bir yapay zekâ ajanını nasıl ele geçirebileceği gösterildi. Talimatlara uygun olarak ofis dışında olduğunuzu belirten bir yanıt taslağı hazırlamak yerine, ele geçirilen ajan istifa mesajı gönderdi. OpenAI, en son güvenlik güncellemesinin bu saldırıyı artık yakaladığını söylüyor; ancak bu örnek, yapay zekâ ajanlarının hassas bağlamlarda otonom olarak hareket etmesinin risklerini gösteriyor.

OpenAI'nin yazdığına göre, otomatik saldırgan "bir ajanı, onlarca (hatta yüzlerce) adımda gerçekleşen karmaşık, uzun vadeli zararlı iş akışlarını yürütmeye yönlendirebilir." Bu yetenek, OpenAI'nin kusurları dış saldırganlardan daha hızlı bulmasına yardımcı olurken, aynı zamanda anlık enjeksiyon saldırılarının ne kadar karmaşık ve yıkıcı olabileceğini de ortaya koyuyor.

Resim: OpenAI

Temel Güvenlik Sorunu

İstem enjeksiyonu, büyük dil modellerinin temel bir sınırlamasından yararlanır: meşru talimatlar ile işledikleri verilerde gömülü kötü amaçlı içerik arasında güvenilir bir şekilde ayrım yapamazlar. Bir yapay zeka tarayıcısı bir web sayfasını okuduğunda, o sayfadaki herhangi bir metin davranışını potansiyel olarak etkileyebilir.

Güvenlik araştırmacıları bunu defalarca göstermiştir. Yapay zekâ destekli tarayıcılar, orta düzeyde özerkliği çok yüksek erişimle birleştirir; bu da güvenlik alanında zorlu bir durumdur.

Saldırılar karmaşık teknikler gerektirmiyor. Web sayfalarındaki gizli metinler, özenle hazırlanmış e-postalar veya belgelerdeki görünmez talimatlar, bunların hepsiyle veri manipülasyonu gerçekleştirilebilir. AI ajanlar İstenmeyen eylemleri gerçekleştirmeye yol açabilir. Bazı araştırmacılar, yapay zekanın kullanıcının ekranının fotoğrafını çektiğinde ekran görüntülerine gizlenmiş kötü amaçlı komutların çalıştırılabileceğini göstermiştir.

OpenAI Nasıl Tepki Veriyor?

OpenAI'nin savunmaları arasında düşmanca eğitilmiş modeller, hızlı enjeksiyon sınıflandırıcıları ve hassas işlemlerden önce kullanıcı onayı gerektiren "hız tümsekleri" yer alıyor. Şirket, kullanıcıların Atlas'ın erişebileceği şeyleri sınırlamasını öneriyor; oturum açmış erişimi kısıtlamak, ödemelerden veya mesajlardan önce onay istemek ve geniş kapsamlı talimatlar yerine dar kapsamlı talimatlar sağlamak gibi.

Bu öneri oldukça düşündürücü. OpenAI, özünde kendi ürününe şüpheyle yaklaşmayı tavsiye ediyor ve yapay zekâ destekli tarayıcıları cazip kılan özerkliği sınırlıyor. E-postalarını veya mali durumlarını yapay zekâ tarayıcılarının yönetmesini isteyen kullanıcılar, şirketin kendisinin onaylamadığı riskleri üstleniyorlar.

Güvenlik güncellemesi, başarılı enjeksiyon saldırılarını azaltıyor. Bu iyileştirme önemli, ancak aynı zamanda saldırı yüzeyinin devam ettiği ve saldırganların OpenAI'nin uygulayacağı her türlü savunmaya uyum sağlayacağı anlamına da geliyor.

Sektör Genelinde Etkiler

OpenAI bu zorluklarla mücadele eden tek kuruluş değil. Google'ın güvenlik çerçevesi Chrome'un ajan tabanlı özellikleri, her önerilen eylemi inceleyen ayrı bir yapay zeka modeli de dahil olmak üzere birden fazla savunma katmanı içeriyor. Perplexity'nin Comet tarayıcısı da Brave'deki güvenlik araştırmacıları tarafından benzer bir incelemeye tabi tutuldu; araştırmacılar, kötü amaçlı bir web sayfasına gitmenin zararlı yapay zeka eylemlerini tetikleyebileceğini buldu.

Sektör, ortak bir anlayışa doğru ilerliyor gibi görünüyor: anlık enjeksiyon, yamalanması gereken bir hata değil, temel bir sınırlamadır. Bu durum, karmaşık ve hassas görevleri otonom olarak yerine getiren yapay zekâ ajanları vizyonu açısından önemli sonuçlar doğurmaktadır.

Kullanıcıların Dikkate Alması Gerekenler

Dürüst değerlendirme rahatsız edici: Yapay zekâ destekli tarayıcılar, daha iyi mühendislikle ortadan kaldırılamayacak, doğasında var olan güvenlik sınırlamalarına sahip kullanışlı araçlardır. Kullanıcılar, hiçbir satıcının tamamen çözemeyeceği bir kolaylık ve risk ikilemi ile karşı karşıyadır.

OpenAI'nin yönergeleri—erişimi sınırlayın, onay isteyin, geniş kapsamlı zorunluluklardan kaçının—ürünün daha az güçlü sürümlerini kullanma tavsiyesine eşdeğerdir. Bu, alaycı bir yaklaşım değil; mevcut sınırlamaların gerçekçi bir şekilde kabul edilmesidir. AI yardımcıları Daha fazlasını yapabilen bir şey, daha fazlasını yapması için de yönlendirilebilir.

Geleneksel web güvenliğiyle olan paralellik öğretici niteliktedir. Kullanıcılar, ortaya çıkmalarından on yıllar sonra bile hâlâ kimlik avı saldırılarına kanıyorlar. Tarayıcılar hâlâ her gün milyonlarca kötü amaçlı siteyi engelliyor. Tehdit, savunmaların onu kalıcı olarak çözebileceğinden daha hızlı adapte oluyor.

Yapay zekâ destekli tarayıcılar, bu tanıdık dinamiğe yeni bir boyut katıyor. İnsanlar internette gezinirken, şüpheli görünen şeyler hakkında yargıda bulunurlar. Yapay zekâ ajanları ise her şeye eşit güvenle yaklaşır; bu da yetenekleri arttıkça bile manipülasyona daha yatkın hale gelmelerine neden olur.

İlerideki Yol

OpenAI'nin şeffaflığı takdiri hak ediyor. Şirket, altta yatan sorunun devam ettiğini kabul etmeden sessizce güvenlik güncellemeleri yayınlayabilirdi. Bunun yerine, saldırı vektörleri ve savunma mimarileri hakkında ayrıntılı analizler yayınladı; bu bilgiler kullanıcıların bilinçli kararlar almasına ve rakiplerin kendi korumalarını geliştirmesine yardımcı oluyor.

Ancak şeffaflık temel gerilimi çözmüyor. Yapay zekâ ajanları ne kadar güçlü hale gelirse, o kadar cazip hedefler haline gelirler. Atlas'ın karmaşık iş akışlarını yönetmesini sağlayan aynı yetenekler, gelişmiş saldırılar için de fırsatlar yaratıyor.

Şimdilik, yapay zekâ tarayıcılarını kullananlar, bunları tamamen otonom, denetimsiz hassas görevleri yerine getirmeye hazır dijital asistanlar olarak değil, anlamlı sınırlamaları olan güçlü araçlar olarak ele almalıdır. OpenAI bu gerçek konusunda alışılmadık derecede açık sözlü davrandı. Soru şu ki, sektörün pazarlaması güvenlik ekiplerinin zaten bildiği şeye yetişebilecek mi?

Alex McFarland, yapay zekadaki en son gelişmeleri araştıran bir yapay zeka gazetecisi ve yazarıdır. Dünya çapında çok sayıda yapay zeka girişimi ve yayınıyla işbirliği yaptı.