Bizimle iletişime geçin

Yapay Zeka

Kontrollü Unutma: Yapay Zekanın Hafızasındaki Bir Sonraki Büyük Zorluk

mm

Yapay zekâ alanı yıllarca tek bir hedefe odaklandı: sistemlerin daha iyi hatırlamasını sağlamak. Modelleri devasa veri kümeleri üzerinde eğittik ve bilgileri hatırlama ve hatırlama yeteneklerini sürekli geliştirdik. Ancak şimdi rahatsız edici bir gerçekle karşı karşıyayız. Asla unutmayan sistemler, şimdi kendi hafızalarının tuzağına düşmüş durumda. Bir zamanlar güç gibi görünen şey, ciddi bir zayıflığa dönüştü.

İnsanlar doğal olarak unutur. Bilgiyi bırakır, uyum sağlar ve ilerleriz. Yapay zeka sistemleri farklı çalışır. Onlara unutmayı öğretmediğimiz sürece her şeyi hatırlarlar. Bu da ciddi sorunlar yaratır. Yapay zeka, gizlilik ihlalleri, güncelliğini yitirmiş bilgiler, yerleşik önyargılar ve yeni görevler öğrenirken bozulan sistemlerle mücadele eder. Önümüzdeki zorluk, yapay zekanın daha fazlasını hatırlamasını sağlamak değil. Yapay zekaya akıllıca unutmayı öğretmemiz gerekiyor.

Unutmanın İki Yüzü

Yapay zekada unutma iki farklı biçimde ortaya çıkıyor ve her birinin kendine özgü sorunları var.

ilk yıkıcı unutkanlıkBu durum, bir sinir ağının yeni görevler üzerinde eğitim aldıktan sonra daha önce öğrendiği bilgileri kaybetmesiyle ortaya çıkar. Örneğin, kedi ve köpekleri tanımak üzere eğitilmiş bir model, kuşları tanımayı öğrendikten sonra bu yeteneğini unutabilir.

İkinci tür ise kontrollü unutmadır. Bu kasıtlıdır. Eğitilmiş modellerden belirli bilgilerin kasıtlı olarak kaldırılmasını içerir. Gizlilik yasaları gibi... KVKK İnsanlara "unutulma hakkı" vermek, şirketlerin talep üzerine verileri silmesini gerektirir. Bu, bozuk sistemleri düzeltmekle ilgili değil. Asla saklanmaması gereken veya talep üzerine silinmesi gereken verilerin kasıtlı olarak kaldırılmasıyla ilgili.

Bu iki sorun zıt yönlere çekiliyor. Biri unutmayı bırakmamızı gerektiriyor. Diğeri ise unutmayı mümkün kılmamızı gerektiriyor. İkisini aynı anda yönetmek, yapay zekanın en zorlu mücadelelerinden biri.

Hafıza Bir Yükümlülüğe Dönüştüğünde

Yapay zeka araştırmaları uzun zamandır hafızayı geliştirmeye odaklanmıştır. Modeller, veri kümeleri ve bağlam pencereleri büyüdü. GPT-4o gibi sistemler artık... token arzı ile bağlamın ve Claude'un ulaşabileceği 200,000Bu gelişmeler performansı artırdı ancak aynı zamanda yeni sorunlar da ortaya çıkardı.

Bir model çok fazla şey hatırladığında, güncel olmayan veya alakasız bilgileri hatırlayabilir. Bu, hesaplamaları boşa harcar ve kullanıcıları şaşırtabilir. Örneğin, şirketinizin bilgi tabanında eğitilmiş bir müşteri destek sohbet robotunu düşünün. Bir politikayı güncelliyorsunuz, ancak birkaç etkileşimden sonra robot eski bilgilere geri dönüyor. Bu olur Çünkü yapay zeka hafızayı doğru şekilde önceliklendiremez. Yapay zeka, güncel olanla eski olan arasındaki farkı ayırt edemez.

Gizlilik yasaları işleri kolaylaştırır Daha güçlüGDPR kapsamında, bir kullanıcı verilerinin silinmesini istediğinde, şirketler verileri kaldırmak zorundadır. Ancak bir yapay zeka modelinden veri silmek, bilgisayardan dosya silmek gibi değildir. Kişisel veriler modelin parametrelerinin bir parçası haline geldiğinde, ağ içindeki milyonlarca bağlantıya yayılır. Bu verileri silmek için tüm sistemi yeniden eğitmek pahalı ve çoğu zaman imkansızdır. Araştırmalar, daha büyük modellerin siber saldırılara karşı daha savunmasız olduğunu göstermektedir. Model ne kadar büyükse, o kadar çok ezberleme eğilimindedir ve özenle hazırlanmış komutlar aracılığıyla sorulduğunda özel verileri yeniden üretebilir. Saldırganlar, asla ulaşmamaları gereken bilgileri elde edebilirler.

Unutmayı Zorlaştıran Nedir?

Yapay zeka modelleri, eğitim örneklerini dosyalar gibi bir klasörde saklamaz. Eğitim bilgilerini sıkıştırır ve ağırlıklarına ve aktivasyonlarına karıştırırlar. Tek bir veri parçasını, diğer her şeyi bozmadan çıkarmak son derece zordur. Ayrıca, belirli eğitim verilerinin modelin dahili ağırlıklarını nasıl etkilediğini kolayca izleyemeyiz. Bir model verilerden öğrendikten sonra, bu bilgi parametreleri arasında izlenmesi zor şekillerde yayılır.

Her silme talebinden sonra modelleri sıfırdan yeniden eğitmek mümkün değildir. Birisi GDPR kapsamında kişisel verilerinin silinmesini istediğinde, verileri yapay zeka sisteminden kaldırmanız gerekir. Ancak bir modeli her seferinde sıfırdan yeniden eğitmek çoğu üretim ortamında çok pahalı ve yavaştır. Milyarlarca veri noktası üzerinde eğitilen büyük dil modelleri için bu yaklaşım aşırı derecede pahalı ve zaman alıcı olacaktır.

Unutulmanın doğrulanması da bir başka zorluk teşkil ediyor. Verilerin gerçekten unutulduğunu nasıl kanıtlayabiliriz? Şirketlerin, bilgileri sildiklerini kanıtlamak için harici denetimlere ihtiyaçları var. Güvenilir doğrulama yöntemleri olmadan, işletmeler uyumluluğu kanıtlayamaz ve kullanıcılar verilerinin gerçekten kaybolduğuna güvenemez.

Bu zorluklar, yeni bir alanın ortaya çıkmasına yol açtı. makine öğrenimini unutmaBelirli verilerin eğitilmiş modellerden etkisini kaldırma tekniklerine odaklanır. Ancak bu yöntemler henüz erken aşamadadır. Kesin öğrenmeyi geri alma genellikle modelin yeniden eğitilmesini gerektirirken, yaklaşık yöntemler silinen bilgilerin izlerini geride bırakabilir.

Kararlılık-Esneklik İkilemi

Ele almamız gereken temel zorluk, kontrollü unutmayı mümkün kılarken felaket düzeyindeki unutmayı önlemektir. Bu bizi yapay zekanın karşı karşıya olduğu temel bir zorluğa götürüyor: kararlılık-plastisite ikilemiModeller, yeni bilgileri öğrenebilecek kadar esnek, ancak eski bilgileri koruyabilecek kadar da kararlı olmalıdır. Modeli kararlılığa doğru çok fazla zorlarsak, uyum sağlayamaz. Öte yandan, esnekliğe doğru çok fazla zorlarsak, bir zamanlar öğrendiği her şeyi unutabilir.

İnsan hafızası bu ikilemle başa çıkmak için faydalı ipuçları sağlar. Sinirbilim anlatır Unutmanın bir kusur olmadığını, aktif bir süreç olduğunu biliyoruz. Beyin, öğrenmeyi daha iyi hale getirmek için bilerek unutur. Eski veya düşük değerli bilgileri siler veya bastırır, böylece yeni anılar erişilebilir kalır. İnsanlar yeni bir dil öğrendiklerinde eskisini silmezler. Ancak kullanmayı bırakırlarsa hatırlamaları zorlaşır. Bilgiler hâlâ oradadır, sadece öncelikleri düşürülmüştür. Beyin, silmeyi değil, seçici bastırmayı kullanır.

Yapay zeka araştırmacıları da benzer fikirleri benimsemeye başlıyor. Üretken tekrar oynatma Teknikler, beynin anıları nasıl depoladığını taklit eder. Ham verileri depolamak yerine geçmiş bilginin soyut temsillerini oluştururlar. Bu, felaket düzeyindeki unutmayı azaltır ve hafızayı derli toplu tutar. Bir diğer umut verici fikir ise akıllı bozulmadır. Depolanan anılar, ne kadar güncel olduklarına, ne kadar alakalı olduklarına ve ne kadar faydalı olduklarına göre puanlanır. Daha az önemli anılar giderek önceliğini kaybeder ve daha az sıklıkla hatırlanır. Bu, bilgileri kullanılabilir ancak ihtiyaç duyulmadıkça gizli tutar. Yapay zeka sistemleri, potansiyel olarak değerli bilgileri atmadan büyük bilgi tabanlarını yönetebilir.

Amaç silmek değil, hatırlama ve unutmayı akıllıca dengelemektir.

Gelecek Neye benziyor

Sektör üç ana yönde ilerliyor.

İlk olarak, hibrit bellek mimarileri ortaya çıkıyor. Bunlar sistemler Epizodik hafızayı (belirli deneyimler) anlamsal hafızayla (genel bilgi) birleştirirler. Önemli bilgileri korurken, daha az alakalı olanları göz ardı etmek için sıralama ve budama mekanizmaları kullanırlar. Vektör veritabanları gibi Çam kozalağı ve dokuma Bu tür belleğin verimli bir şekilde yönetilmesine ve geri çağrılmasına yardımcı olur.

İkincisi, gizliliği artıran teknolojileri ivme kazanıyor. Gibi teknikler federe öğrenme, farklı gizlilik, ve homomorfik şifreleme Hassas kişisel verilere olan ihtiyacı azaltır. Bu yöntemler, modellerin tren Hassas kullanıcı bilgilerini toplamadan işbirlikçi veya güvenli bir şekilde. Doğrudan unutma sorununu çözmezler, ancak daha sonra unutulması gereken kişisel veri miktarını azaltırlar.

Üçüncüsü, makine öğrenmesini unutur geliştirmeYeni yöntemler, tam bir yeniden eğitime gerek kalmadan belirli verilere bağlı model parametrelerini ayarlayabilir. yaklaşımlar Henüz erken aşamadalar, ancak veri silme gerekliliklerine uyum sağlama yolunda ilerliyorlar. Yine de, öğrenmeyi geri almanın gerçekten tüm veri izlerini ortadan kaldırdığını doğrulamak zor olmaya devam ediyor. Araştırmacılar, ne kadar iyi çalıştığını ölçmek için testler geliştiriyor.

Alt çizgi

Yapay zeka sistemleri hatırlama konusunda mükemmel hale geldi. Ancak unutma konusunda hâlâ yetersizler. Bu uçurumu görmezden gelmek giderek zorlaşıyor. Yapay zeka güçlendikçe ve düzenlemeler sıkılaştıkça, akıllıca unutma yeteneği, hatırlama yeteneği kadar önemli hale gelecek. Yapay zekayı daha güvenli, daha uyumlu ve daha gizliliğe duyarlı hale getirmek için ona dikkatli, seçici ve akıllıca unutmayı öğretmeliyiz. Kontrollü unutma, yalnızca veri gizliliğini korumakla kalmayacak, aynı zamanda yapay zeka sistemlerinin kendi hafızalarının esiri olmadan gelişmesine de yardımcı olacaktır.

 

Dr. Tehseen Zia, İslamabad COMSATS Üniversitesi'nde Kadrolu Doçenttir ve Avusturya'daki Viyana Teknoloji Üniversitesi'nden yapay zeka alanında doktora derecesine sahiptir. Yapay Zeka, Makine Öğrenimi, Veri Bilimi ve Bilgisayarlı Görme konularında uzmanlaşarak saygın bilimsel dergilerdeki yayınlarıyla önemli katkılarda bulunmuştur. Dr. Tehseen ayrıca Baş Araştırmacı olarak çeşitli endüstriyel projelere liderlik etti ve Yapay Zeka Danışmanı olarak görev yaptı.