saplama Araştırmacılar Yapay Zekanın İnsanların Gizliliğini Korumaya Yardımcı Olabileceğine İnanıyor - Unite.AI
Bizimle iletişime geçin

ahlâk

Araştırmacılar, Yapay Zekanın İnsanların Gizliliğini Korumaya Yardımcı Olabileceğine İnanıyor

mm
Güncellenmiş on

İki bilgi bilimi profesörü yakın zamanda yayınladı The Conversation'dan bir parça, yapay zekanın yarattığı bazı sorunları düzelterek insanların mahremiyetini korumaya yardımcı olabileceğini savundu.

Zhiyuan Chen ve Aryya Gangopadhyay, yapay zeka algoritmalarının insanların mahremiyetini savunmak için kullanılabileceğini ve AI'nın diğer kullanımlarının yarattığı birçok mahremiyet endişesinden bazılarını ortadan kaldırabileceğini savunuyorlar. Chen ve Gangopadhyay, kolaylık sağlamak için kullandığımız AI odaklı ürünlerin çoğunun, ilk bakışta gizliliği koruma girişimleriyle çelişiyor gibi görünen büyük miktarda veriye erişim olmadan işe yaramayacağını kabul ediyor. Ayrıca, yapay zeka giderek daha fazla sektöre ve uygulamaya yayıldıkça, daha fazla veri toplanacak ve veritabanlarında depolanacak, bu da bu veritabanlarının ihlal edilmesini cazip hale getirecektir. Ancak Chen ve Gangopadhyay, doğru kullanıldığında yapay zekanın bu sorunları hafifletmeye yardımcı olabileceğine inanıyor.

Chen ve Gangopadhyay, gönderilerinde AI ile ilişkili gizlilik risklerinin en az iki farklı kaynaktan geldiğini açıklıyor. İlk kaynak, sinir ağı modellerini eğitmek için toplanan büyük veri kümeleri, ikinci gizlilik tehdidi ise modellerin kendisidir. Veriler potansiyel olarak bu modellerden "sızabilir" ve modellerin davranışları onları eğitmek için kullanılan veriler hakkında ayrıntılar verir.

Derin sinir ağları, her katmanın etrafındaki katmanlara bağlı olduğu çok sayıda nöron katmanından oluşur. Bireysel nöronlar ve nöronlar arasındaki bağlantılar, eğitim verilerinin farklı bitlerini kodlar. Model, aşırı uydurma olmasa bile, eğitim verilerinin kalıplarını hatırlamakta çok iyi olabilir. Eğitim verilerinin izleri ağ içinde bulunur ve kötü niyetli aktörler, Cornell Üniversitesi olarak eğitim verilerinin özelliklerini tespit edebilir. çalışmalarından biri sırasında bulundu. Cornell araştırmacıları, yüz tanıma modelini eğitmek için hangi görüntülerin ve dolayısıyla hangi kişilerin kullanıldığını ortaya çıkarmak için saldırganlar tarafından yüz tanıma algoritmalarından yararlanılabileceğini keşfetti. Cornell araştırmacıları, bir saldırganın uygulamayı eğitmek için kullanılan orijinal modele erişimi olmasa bile, yalnızca modelleri kullanarak ağı inceleyebileceğini ve eğitim verilerine belirli bir kişinin dahil edilip edilmediğini belirleyebileceğini keşfetti. son derece benzer veriler üzerinde eğitilmişti.

Bazı AI modelleri şu anda veri ihlallerine karşı koruma sağlamak ve insanların mahremiyetini sağlamaya çalışmak için kullanılıyor. AI modelleri, bilgisayar korsanlarının güvenlik yöntemlerine girmek için kullandıkları davranış kalıplarını tanıyarak bilgisayar korsanlığı girişimlerini tespit etmek için sıklıkla kullanılır. Bununla birlikte, bilgisayar korsanları, model tespit eden yapay zekayı denemek ve kandırmak için genellikle davranışlarını değiştirir.

Yeni AI eğitim ve geliştirme yöntemleri, AI modellerini ve uygulamalarını bilgisayar korsanlığı yöntemlerine ve güvenlikten kaçınma taktiklerine karşı daha az savunmasız hale getirmeyi amaçlamaktadır. Düşmanca öğrenme, yapay zeka modellerini kötü niyetli veya zararlı girdilerin simülasyonları üzerinde eğitmeye çalışır ve bunu yaparken modeli istismara karşı daha dayanıklı hale getirir, dolayısıyla adı "düşman" olur. Chen ve Gangopadhyay'a göre, araştırmaları keşfetti insanların özel bilgilerini çalmak için tasarlanmış kötü amaçlı yazılımlarla mücadele yöntemleri. İki araştırmacı, kötü amaçlı yazılımlara direnmede en etkili buldukları yöntemlerden birinin, modele belirsizliğin dahil edilmesi olduğunu açıkladı. Amaç, kötü aktörlerin modelin herhangi bir girdiye nasıl tepki vereceğini tahmin etmesini zorlaştırmaktır.

Gizliliği korumak için yapay zekadan yararlanmanın diğer yöntemleri arasında, model oluşturulduğunda ve eğitilirken veri açığa çıkmasının en aza indirilmesinin yanı sıra ağın güvenlik açıklarının keşfedilmesi de yer alıyor. Veri gizliliğinin korunması söz konusu olduğunda, birleştirilmiş öğrenme hassas verilerin gizliliğinin korunmasına yardımcı olabilir; çünkü bir modelin, eğitim verilerinin verileri içeren yerel cihazlardan hiç ayrılmadan eğitilmesine olanak tanır, verileri yalıtır ve verinin büyük bir kısmını yalıtır. casusluktan modelin parametreleri.

Nihayetinde Chen ve Gangopadhyay, AI'nın yaygınlaşması insanların mahremiyetine yönelik yeni tehditler yaratırken, AI'nın özen ve dikkatle tasarlandığında mahremiyetin korunmasına da yardımcı olabileceğini savunuyor.

Uzmanlık alanlarına sahip blogcu ve programcı Makine öğrenme ve Derin Öğrenme konular. Daniel, başkalarının yapay zekanın gücünü toplumsal fayda için kullanmasına yardım etmeyi umuyor.