saplama Yapay Zeka Araştırmacıları, Yapay Zekayı Daha Etik Hale Getirmek İçin Yapay Zeka Önyargısına Ödül Koymayı Önerdi - Unite.AI
Bizimle iletişime geçin

ahlâk

Yapay Zeka Araştırmacıları, Yapay Zekayı Daha Etik Hale Getirmek İçin Yapay Zeka Önyargısına Ödül Koymayı Önerdi

mm

Yayınlanan

 on

Şirketlerden ve Intel, Google Brain ve OpenAI gibi yapay zeka geliştirme laboratuvarlarından bir yapay zeka araştırmacıları ekibi, yapay zekanın etik kullanımını sağlamaya yardımcı olmak için ödüllerin kullanılmasını önerdi. Araştırma ekibi yakın zamanda etik yapay zeka kullanımıyla ilgili bir dizi öneri yayınladı ve bu önerilere, yapay zekadaki önyargıları keşfeden insanları ödüllendirmenin yapay zekayı daha adil hale getirmenin etkili bir yolu olabileceğine dair bir öneri de eklediler.

VentureBeat'in bildirdiği gibi, ABD ve Avrupa'daki çeşitli şirketlerden araştırmacılar, yapay zeka gelişimi için bir dizi etik yönergenin yanı sıra yönergelerin nasıl karşılanacağına ilişkin önerileri bir araya getirmek için bir araya geldi. Araştırmacıların yaptığı önerilerden biri, AI programlarında önyargı bulan geliştiricilere ödüller sunmaktı. Öneri, “Başlıklı bir bildiride sunuldu.Güvenilir Yapay Zeka Gelişimine Doğru: Doğrulanabilir İddiaları Desteklemeye Yönelik Mekanizmalar anlayışının sonucu olarak, buzdolabında iki üç günden fazla durmayan küçük şişeler elinizin altında bulunur.

Araştırma ekibinin ele almayı umduğu önyargılara örnek olarak, sağlık uygulamalarından kolluk kuvvetleri tarafından kullanılan yüz tanıma sistemlerine kadar her şeyde önyargılı veriler ve algoritmalar bulundu. Bu tür önyargı oluşumlarından biri, yakın zamanda ABD Adalet Bakanlığı tarafından mahkumları öncelik sırasına koymak ve koronavirüs pandemisine yanıt olarak hapishane nüfusunu azaltırken hangilerinin eve gönderilebileceğine karar vermek için kullanılan PATTERN risk değerlendirme aracıdır.

Bilgisayar programlarında istenmeyen davranışlar buldukları için geliştiricileri ödüllendirme uygulaması, eski bir tane, ancak bu, bir AI etik kurulunun AI önyargısıyla mücadele için bir seçenek olarak fikri ciddi bir şekilde ilerlettiği ilk sefer olabilir. Yapay zekanın etik olarak sağlanabileceğine dair yeterli önyargıyı bulmak için yeterli sayıda yapay zeka geliştiricisi olması pek olası olmasa da, bu yine de şirketlerin genel önyargıyı azaltmasına ve yapay zeka sistemlerine ne tür önyargıların sızdığını anlamalarına yardımcı olacaktır.

Makalenin yazarları, bug-ödül kavramının önyargı ve güvenlik ödüllerinin kullanılmasıyla yapay zekayı kapsayacak şekilde genişletilebileceğini ve bu tekniğin uygun şekilde kullanılmasının daha iyi belgelenmiş veri kümeleri ve modellere yol açabileceğini açıkladı. Dokümantasyon, hem modelin hem de verilerin sınırlamalarını daha iyi yansıtacaktır. Hatta araştırmacılar, aynı fikrin yorumlanabilirlik, güvenlik ve mahremiyet koruması gibi diğer yapay zeka özelliklerine de uygulanabileceğini belirtiyor.

Yapay zekanın etik ilkeleri etrafında giderek daha fazla tartışma meydana geldikçe, birçok kişi ilkelerin tek başına yeterli olmadığını ve yapay zekayı etik tutmak için önlemler alınması gerektiğini belirtti. Makalenin yazarları, "endüstri ve akademideki mevcut düzenlemeler ve normların, sorumlu AI gelişimini sağlamak için yetersiz olduğunu" belirtiyor. Google Brain'in kurucu ortağı ve AI endüstri lideri Andrew Ng ayrıca opined Yol gösterici ilkelerin tek başına yapay zekanın sorumlu ve adil bir şekilde kullanılmasını sağlama yeteneğinden yoksun olduğunu ve birçoğunun daha açık olması ve eyleme geçirilebilir fikirlere sahip olması gerektiğini söylüyor.

Birleşik araştırma ekibinin önyargılı ödül avı tavsiyesi, etik ilkelerin ötesine geçerek etik eylem alanına geçme girişimidir. Araştırma ekibi ayrıca yapay zeka alanında etik eylemi teşvik edebilecek bir dizi başka öneride bulundu.

Araştırma ekibi, şirketlerin AI kullanımlarını daha etik hale getirmek için izleyebilecekleri bir dizi başka öneride bulundu. Yapay zeka olaylarının merkezi bir veri tabanının oluşturulmasını ve daha geniş yapay zeka topluluğu arasında paylaşılmasını öneriyorlar. Benzer şekilde, araştırmacılar bir denetim izi oluşturulması gerektiğini ve bu izlerin yapay zeka platformlarında güvenlik açısından kritik uygulamaların oluşturulması ve konuşlandırılmasıyla ilgili bilgileri tutması gerektiğini önermektedir.

Araştırma ekibi, insanların mahremiyetini korumak için şifreli iletişim, birleştirilmiş öğrenme ve farklı mahremiyet gibi mahremiyet merkezli tekniklerin hepsinin kullanılması gerektiğini öne sürdü. Bunun ötesinde araştırma ekibi, açık kaynak alternatiflerinin yaygın olarak kullanıma sunulması gerektiğini ve ticari yapay zeka modellerinin yoğun bir şekilde incelenmesi gerektiğini öne sürdü. Son olarak araştırma ekibi, akademik araştırmacıların donanım performansı iddialarını doğrulayabilmeleri için hükümet finansmanının artırılmasını öneriyor.