saplama MIT Araştırma Ekibi, Olumsuz Örneklere Direnmek İçin Yapay Zeka Ağı Tasarladı - Unite.AI
Bizimle iletişime geçin

Yapay Zeka

MIT Araştırma Ekibi, Olumsuz Örneklere Direnmek İçin Yapay Zeka Ağını Tasarladı

mm

Yayınlanan

 on

MIT h'den bir araştırma ekibiderin öğrenme algoritması geliştirildiği gibi yapay zekanın yanlış tahminler yapmasına ve yanlış eylemler gerçekleştirmesine neden olabilecek "düşmanca" örneklerle başa çıkmasına yardımcı olmayı amaçlamaktadır. MIT ekibi tarafından tasarlanan algoritma, yapay zeka sistemlerinin doğruluğunu korumasına ve kafa karıştırıcı veri noktalarıyla karşılaştığında hata yapmaktan kaçınmasına yardımcı olabilir.

AI sistemleri, bir olaya nasıl yanıt verileceğine karar vermek için bir olayın giriş özelliklerini analiz eder. Otonom bir araca manevra yapmaktan sorumlu bir yapay zeka, aracın kameralarından veri almalı ve bu görüntülerde yer alan verilere dayanarak ne yapılacağına karar vermelidir. Ancak yapay zeka tarafından analiz edilen görüntü verilerinin gerçek dünyayı tam olarak yansıtmama ihtimali de vardır. Kamera sistemindeki bir aksaklık, bazı pikselleri değiştirerek yapay zekanın uygun hareket tarzı hakkında yanlış sonuçlar çıkarmasına neden olabilir.

"Düşman girdiler" bir yapay zeka sistemi için optik yanılsamalar gibidir. Bunlar bir şekilde yapay zekanın kafasını karıştıran girdilerdir. Verileri, yapay zekanın bir örneğin içeriğinin başka bir şey yerine başka bir şey olduğuna inanmasını sağlayacak şekilde temsil ederek, yapay zekanın hata yapmasına neden olma açık hedefiyle karşıt girdiler hazırlanabilir. Örneğin, kedilerin görüntülerinde küçük değişiklikler yaparak yapay zekanın görüntüleri bilgisayar monitörü olarak yanlış sınıflandırmasına neden olarak bilgisayarlı görme sistemi için rakip bir örnek oluşturmak mümkündür. MIT araştırma ekibi, modelin aldığı girdiler konusunda bir dereceye kadar "şüpheci" kalmasını sağlayarak, karşıt örneklere karşı korunmaya yardımcı olacak bir algoritma tasarladı.

MIT araştırmacıları yaklaşımlarını “Derin Güçlendirmeli Öğrenme için Sertifikalı Rekabetçi Sağlamlık” olarak adlandırdı. CARRL. CARRL, bir takviyeli öğrenme ağı ve bir araya getirilmiş geleneksel bir derin sinir ağından oluşur. Takviyeli öğrenme, bir modeli eğitmek için "ödüller" kavramını kullanır ve hedefine yaklaştıkça modele orantılı olarak daha fazla ödül verir. Takviyeli öğrenme modeli, Derin Q-Netowrkk veya DQN'yi eğitmek için kullanılır. DQN'ler, geleneksel sinir ağları gibi işlev görür, ancak aynı zamanda, takviyeli öğrenme sistemleri gibi, girdi değerlerini bir ödül düzeyiyle ilişkilendirirler.

CARRL, girdi verileri için bir dizi farklı olası değeri modelleyerek çalışır.

Yapay zekanın daha büyük bir görüntüdeki bir noktanın konumunu izlemeye çalıştığını varsayarsak, yapay zeka noktanın konumunun düşman etkisinin sonucu olabileceğini düşünür ve bunun yerine noktanın olabileceği bölgeleri dikkate alır. Ağ daha sonra noktanın konumu için en kötü durum senaryosuna dayalı olarak kararlar verir ve bu en kötü durum senaryosunda en yüksek ödülü üretecek eyleme karar verir.

Rakip örneklere karşı korunmanın tipik yöntemi, her zaman aynı kararın verilip verilmediğini görmek için yapay zeka ağı aracılığıyla girdi görüntüsünün biraz değiştirilmiş sürümlerini çalıştırmayı içerir. Görüntüdeki değişiklikler sonucu önemli ölçüde etkilemiyorsa, ağın rakip örneklere karşı dirençli olma şansı yüksektir. Ancak bu, hızlı kararların alınması gereken senaryolar için uygun bir strateji değildir, çünkü bunlar zaman alan, hesaplama açısından pahalı test yöntemleridir. Bu nedenle MIT ekibi, güvenliğin kritik olduğu senaryolarda çalışabilen, en kötü durum varsayımlarına dayalı kararlar alabilen bir sinir ağı oluşturmak için yola çıktı.

MIT araştırmacıları, yapay zekaya bir Pong oyunu oynatarak algoritmalarını test ettiler. Topun gerçekte olduğundan biraz daha aşağıda görüntülendiği yapay zeka örneklerini besleyerek rakip örnekleri dahil ettiler. Rakip örneklerin etkisi arttıkça, standart düzeltme teknikleri başarısız olmaya başlarken, CARRL kıyaslandığında daha fazla oyun kazanmayı başardı. CARRL ayrıca bir çarpışmadan kaçınma görevinde test edildi. Görev, iki farklı ajanın birbirine çarpmadan pozisyon değiştirmeye çalıştığı sanal bir ortamda ortaya çıktı. Araştırma ekibi, birinci temsilcinin ikinci temsilci hakkındaki algısını değiştirdi ve CARRL, yüksek belirsizlik koşullarında bile birinci aracıyı diğer temsilcinin etrafında başarılı bir şekilde yönlendirmeyi başardı, ancak CARRL'nin çok temkinli davrandığı ve sonunda kendi kontrolünden kaçındığı bir noktaya gelindi. tamamen varış noktası.

Ne olursa olsun, çalışmayı yöneten MIT Havacılık ve Uzay Bilimleri Bölümü Doktora Sonrası Michael Everett, araştırmanın robotların öngörülemeyen durumlarla başa çıkma becerileri üzerinde etkileri olabileceğini açıkladı. Everett'in açıkladığı gibi MIT Haberleri aracılığıyla:

Everett, "İnsanlar, sensörlerini bloke etmek için bir robotun önüne geçmek veya onlarla etkileşim kurmak gibi düşmanca davranabilir, bu ille de en iyi niyetle olmayabilir" diyor. "Bir robot, insanların yapmaya çalışabilecekleri onca şeyi nasıl düşünebilir ve onlardan kaçmaya çalışabilir? Ne tür hasım modellere karşı savunma yapmak istiyoruz? Bu, nasıl yapacağımızı düşündüğümüz bir şey.”