Yapay Zekâ
Araştırmacılar AI Güvenilirliğini Artırmaya Yardımcı Olan “DeepTrust” Aracını Geliştirdiler

Yapay zeka (AI) güvenliği ve güvenilirliği, teknolojinin en önemli yönlerinden biridir. Farklı alanlardaki üst düzey uzmanlar tarafından sürekli olarak geliştirilmekte ve iyileştirilmekte olup, AI’nın toplum genelinde tam olarak uygulanması için çok önemlidir.
Bu yeni çalışmalardan bazıları, USC Viterbi Mühendislik araştırmacılarının, AI algoritmalarının verilerine ve tahminlerine güvenilip güvenilemeyeceğini otomatik olarak gösteren bir araç geliştirdiği Güney Kaliforniya Üniversitesi’nden gelmektedir.
Araştırma, Frontiers in Artificial Intelligence dergisinde “Her Şeyden Sonra Umut Var: Sinir Ağlarında Görüş ve Güvenilirliğin nicelendirilmesi” başlığıyla yayımlandı. Makalenin yazarları arasında Mingxi Cheng, Shahin Nazarian ve USC Siber Fiziksel Sistemler Grubu’ndan Paul Bogdan yer almaktadır.
Yapay Sinir Ağlarının Güvenilirliği
Bu alanda en büyük görevlerden biri, sinir ağlarının güvenilir tahminler üretmesini sağlamaktır. Pek çok durumda, bu, AI’ye dayanan teknolojinin tam olarak benimsenmesini engelleyen şeydir.
Örneğin, otonom araçlar bağımsız olarak hareket etmek ve otomatik pilot modunda doğru kararlar almak zorundadır. Yoldaki nesneleri çok hızlı bir şekilde tanımlayarak ve tanımlayarak kararlar verme yeteneğine sahip olmaları gerekir. Bu, özellikle teknolojinin bir hız engeli, başka bir nesne veya canlı arasındaki farkı çözmek zorunda kaldığı senaryolarda çok önemlidir.
Diğer senaryolar, örneğin bir otonom aracın başka bir aracın kendisine doğru gelmesi durumunda ne yapacağını kararlaştırması ve en karmaşık kararın, otonom aracın başka bir araç, bir nesne veya bir canlıya çarpmak arasında seçim yapması gerektiği durumları içermektedir.
Bütün bunlar, otonom aracın yazılımının saniyenin kesirlerinde doğru kararı verme yeteneğine aşırı derecede güvendiğimiz anlamına gelir. Farklı sensörlerden, örneğin kameralardan ve Lidar’dan gelen çelişkili bilgiler olduğunda daha da zor hale gelir.
Baş yazar Minxi Cheng, “İnsanların bile belirli karar alma senaryolarında kararsız olabileceğini düşündü. Çelişkili bilgiler söz konusu olduğunda, makinelerin bize bilmediklerini söyleyememesi neden?” diye düşünerek bu projeyi üstlendi.
DeepTrust
Araştırmacılar tarafından oluşturulan araç, Ming Hsieh Elektrik ve Bilgisayar Mühendisliği Bölümü’nde yardımcı doçent olan Paul Bogdan’a göre, belirsizliği nicelendirme yeteneğine sahiptir.
Ekibin DeepTrust’ü geliştirmesi yaklaşık iki yıl sürdü ve chủ olarak subjektif mantık kullanarak sinir ağlarını değerlendirdiler. Araç çalışırken bir örnekte, 2016 başkanlık seçiminde anketlere baktı ve Hillary Clinton’ın kazanma payının daha büyük bir hata payına sahip olduğunu öngördü.
DeepTrust aracı, genellikle milyonlarca veri noktasına kadar eğitilen AI algoritmalarının güvenilirliğini test etmeyi de kolaylaştırır. Bunu yapmak için diğer bir yol, her bir veri noktasını bağımsız olarak kontrol ederek doğruluğu test etmek olup, bu son derece zaman alıcı bir görevdir.
Araştırmacılara göre, bu sinir ağı sistemlerinin mimarisi daha doğru ve doğruluk ve güvenilirlik aynı anda maksimize edilebilir.
“Bilgimiz dahilinde, derin öğrenme, yapay zeka ve makine öğrenimi için bir güven nicelendirme modeli veya aracı yoktur. Bu, ilk yaklaşım ve yeni araştırma yönleri açıyor” diyor Bogdan.
Bogdan ayrıca, DeepTrust’ün AI’yi “farkında ve uyarlanabilir” olacağı noktaya itmek için yardımcı olabileceğine inanmaktadır.










