Connect with us

Düşünce Liderleri

Tasarım ile Güvenilir AI Ajanları Oluşturmak, Kaza ile Değil

mm
A photorealistic widescreen image of a compliance team overseeing an AI

Agentic AI, büyük bir törenle gelmek yerine günlük operasyonlara kayıyor. İnsanlardan gelen sinyalleri bekleyen sistemler artık inisiyatif alıyor. Bu evrim zaten organizasyonların içinde gerçekleşiyor, ancak AI yönetimi hakkında konuşma daha önceki bir döneme takılı kaldı. Yasalarımız ve organizasyonel yapılarımız, otonom, insan olmayan aktörler düşünülerek inşa edilmedi. GDPR’ye tabi olan şirketler için bu, teorik bir endişe değil, canlı bir operasyonel zorluk – ve çoğu uyum ekibinin rahatça karşılayabileceğinden daha hızlı ilerliyor.

AI araçları geri konuşmaya başladığında

Yönetişim hakkında konuştuğumuzda, odak genellikle uyum, risk yönetimi ve zarar önleme üzerinedir. Bu çok önemli konular, ancak AI büyük ölçüde statikken tasarlanmış bir dünya için inşa edilmişlerdi: eğitilmiş, test edilmiş, yayınlanmış ve öngörülebilir döngülerde izlenmiştir.

AI ajanlarının karar alma süreçlerine dahil edilmesiyle, merkezi zorluk artık daha çok davranış ve güven meselesine dönüşüyor. Yöneticiler kendilerine, “nasıl sistemlerin güvenilir olmasını sağlayabiliriz?” sorusunu sormalılar. Güven, kasıtlı olarak yapılmalıdır, ikna yoluyla değil. GDPR rehberlerine uyan organizasyonlar, uyumun kritik olduğunu ve yasal sonuçları olduğunu anlar.

Agentic AI’nin bugünün GDPR varsayımlarını nasıl bozduğu

GDPR tasarlanırken, otonom ajanlar düşünülerek yazılmamıştı. Ancak, GDPR’nin üç temel ilkesi – amaç sınırlaması, veri asgarileştirme, şeffaflık ve hesap verebilirlik – kritiktir. Agentic AI, her biri yeni şekillerde etkiler ve ele alınması gereken üç ana alan vardır.

İlk risk, bir AI aracının bir görevi “düşünme” şekliyle ilgilidir. Sabit bir işlem çalıştırmak yerine, işi birçok küçük adıma ayırır, genellikle dış araçları çağırır, veritabanlarından veri çeker, tahminlerde bulunur ve bu sırada kişisel verileri işler. Bunların çoğu gözden uzakta gerçekleşir. Kullanılan verilerin, hangi adımda ve neden kullanıldığını belirlemek pratikte zor – ancak bu, GDPR’nin beklediği türden şeffaflık ve hesap verebilirliktir.

İkinci risk, ajanların hafızalarını kullanma şekliyle ilgilidir. Bir görevi tamamlarken kısa süreli hafızada ve birçok oturum boyunca uzun süreli hafızada kişisel verileri tutabilirler. Bu hafıza, iyi ayrılmazsa, bir kişinin etkileşiminden diğerine bilgi sızabilir. Açık retention sınırları uygulamazsanız, kişisel veriler silinmesi gerektiğinden çok daha uzun süre kalabilir. GDPR’nin silme hakkı altında, bu, verilerin bir veritabanında değil, bir ajanın hafızasında saklandığında yönetmek çok zor hale gelir.

Üçüncü risk, esasen ajanı kandırmaktır. Bir ajan belgeleri okur, web’de gezinir veya gelen mesajları işlerken, bu kaynaklardaki kötü niyetli içerik, onun davranışını ele geçirebilir, kişisel verileri sızdırmasına neden olabilir veya onaylanmamış eylemler gerçekleştirmesine neden olabilir. Bu, agentic sistemlere özgü bir saldırı modelidir. Bu, temel sistemlerin hacklenmesinden değil, AI aracının işini yaparken düşmanca içerikle karşılaştığı için bir veri ihlali yaşayabilirsiniz – ve GDPR altında hala sorumlusunuz.

Gerçek bir güven oluşturmak, sadece dostane bir arayüz değil

İkna yoluyla güvenden kazanılan güvene arasındaki farkı anlamak önemlidir. İkna yoluyla güvende, genellikle duygusal yankı, antropomorfik ipuçları veya ikna edici tasarım yoluyla bir anahtara ikna edilebilir.

Ancak dayanıklı güven, insanların anlayabileceği, önceden görebileceği ve değerlendirebileceği şekillerde davranan sistemlerle ilgilidir. Ajanın akıl yürütmesi, sınırları ve niyetleri meşru olmalıdır. Bu, GDPR’ye uygun tasarım için ön koşuldur, burada şeffaflık anlamlı olmalıdır.

Güven Yığını gerçekten ne anlama geliyor?

Organizasyonlar için bir strateji, katmanlı bir güven yığını kullanmaktır. Bu, her katmanın insanlarla makineler arasındaki hesap verebilirliği net bir şekilde açıklaması anlamına gelir.

  • Açık akıl yürütme yolları: Ajan, bir sonucu nasıl ve neden ürettiğini açıklamalıdır – derin teknik ayrıntılarla değil, ancak takip edilebilecek ve kontrol edilebilecek bir şekilde. Bu, GDPR’nin şeffaflık kurallarıyla ve Otomatik Kararlar için 22. Maddenin açıklama hakkıyla uyumludur.
  • Gücün açık sınırları: Ajanın yapmasına, karar vermesine veya önermesine izin verilen net sınırlar olmalıdır. Zamanda sessizce özgürlüğünün genişlemesine izin verilmez. GDPR amaçları için, insanlar hala kararları verir; ajan, bir kontrolör değil, bir araçtır.
  • Açık hedefler: Ajanın hedefleri açıkça belirtilmelidir. İnsanların, ajanın doğruluk, güvenlik, hız veya ticari kazanç için optimize edilip edilmediğini bilmeleri gerekir – ve bu hedefin yazılması ve anlaşılması gerekir.
  • Kolay meydan okuma ve durdurma düğmesi: İnsanların, ajanın kararlarını sorgulamaları, düzeltmeleri veya durdurmaları olmadan sürtünmesiz bir şekilde yapabilmeleri gerekir. Kolay bir şekilde çıkma yolu, güven için temel bir gereksinimdir – ve 22. Madde altında yasal bir gereksinimdir.
  • Yerleşik yönetim: Günlük kaydı, kontroller, hafıza kontrolleri ve denetim, sistemden günlerden itibaren inşa edilmelidir, daha sonra eklenmemelidir. Tasarım tarafından gizlilik, her şeyin çalışmasını sağlayan temel yapıdır.

Güven Yığını’nı kullanmak, otonominin güvenli bir şekilde ölçeklendirilmesini sağlar.

Yönetişim gerçek dünya deneyimine ulaştığında

Yönetişim, sadece kurallar ve süreçler hakkında değildir. Ayrıca sistemlerin kullanıcılarına nasıl hissettirdiğiyle ilgilidir. İnsanların hala kontrolü ellerinde hissetmeleri gerekir. AI’nin ne yaptığını görmeleri, neden bir şey yaptığını anlamaları ve ne zaman durması gerektiğini bilmeleri gerekir.

Uygunluk kutusunu işaretleyen ancak bir kara kutu gibi hisseden sistemler, güveni nhanh kaybetmektedir. Bu, çok kasıtlı tasarım seçimlerini gerektirir: insan benzeri sinyalleri öneren empati veya ahlaki yargıya sahip olmayan sistemler için; AI’nin belirsiz veya sınırlı olduğunda net sinyaller; ve duygusal bağımlılık oluşturmak için deneyimi ayarlamayın.

Liderler, “AI’miz sorumlu mu?” sorusunun ötesine geçmelidir. Daha iyi bir soru seti: “Bu sistem hangi davranışları normal hale getirecek? İnsanları neye karşı sessizce itecek? Zaman içinde yargıyı nasıl şekillendirecek – ve bunun için cevap verecek misiniz?”

Ivana Bartoletti, Wipro adlı önde gelen bir AI güdümlü teknoloji hizmetleri ve danışmanlık şirketinin Küresel Gizlilik ve AI Yönetim Ofisi Başkanıdır. Gizlilik, AI yönetimi ve sorumlu teknoloji konularında uluslararası olarak tanınmış bir düşünce lideri olan Ivana, Avrupa Konseyi için uzman olarak görev yapmakta ve burada yapay zekanın cinsiyet eşitliği üzerindeki etkisini inceleyen önemli bir çalışmaya ortak yazarlık etmektedir.