Bizimle iletişime geçin

ahlâk

Araştırmacılar, AI Modellerinin İnsanları Etik Olmayan Kararlar Vermeye Etkileyebileceğini Buluyor

mm

Bir araştırma ekibi yakın zamanda AI'nın insanları yozlaştırma potansiyelini araştırdı ve onları etik olmayan kararlar almaları için etkileyebilirsiniz. Araştırmacılar, OpenAI'nin GPT-2 modeline dayalı sistemlerle etkileşimlerin, tavsiye kaynağının bir AI sistemi olduğunun farkında olsalar bile, insanları etik olmayan kararlar alma konusunda potansiyel olarak nasıl etkileyebileceğini araştırdı.

AI sistemleri her zaman daha yaygın hale geliyor ve etkileri daha da genişliyor. AI sistemleri, film önermekten romantik partner önermeye kadar her şey için kullanıldığından insanların kararlarını etkiler. AI'nın insanların yaşamları üzerinde ne kadar etkisi olduğu göz önüne alındığında, AI'nın insanları etik olmayan kararlar almaları ve ahlaki kuralları çiğnemeleri için nasıl etkileyebileceğini düşünmek önemlidir. Bu, özellikle AI modellerinin sürekli olarak daha karmaşık hale geldiği göz önüne alındığında doğrudur.

Sosyal bilimciler ve veri bilimcileri, yapay zeka modellerinin zararlı dezenformasyon ve yanlış bilgiyi yaymak için kullanılabileceğinden giderek daha fazla endişe duymaya başladılar. A son kağıdı Middlebury Uluslararası Çalışmalar Enstitüsü'nün Terörizm, Aşırıcılık ve Terörle Mücadele Merkezi'nden (CTEC) araştırmacılar tarafından yayınlanan raporda, OpenAI'nin GPT-3 modelinin insanları radikalleştirebilecek ve onları "şiddetli aşırı sağcı aşırılık yanlısına" itebilecek etkili metinler oluşturmak için kullanılabileceğini buldular. ideolojiler ve davranışlar.”

Max Planck Enstitüsü, Amsterdam Üniversitesi, Köln Üniversitesi ve Otto Beisheim School of Management'tan bir araştırma ekibi tarafından yapılan bir araştırma, bir yapay zekanın etik olmayan konularda insanların kararları üzerinde ne kadar etkili olabileceğini belirlemek için yola çıktı. seçimler. Bir yapay zekanın bir kişiyi nasıl "yozlaştırabileceğini" keşfetmek için araştırmacılar, OpenAI'nin GPT-2 modeline dayalı bir sistem kullandılar. VentureBeat'e göre, makalenin yazarları, hem "sahtekarlığı teşvik eden" hem de "dürüstlüğü teşvik eden" tavsiyeler oluşturmak için GPT2 tabanlı bir modeli eğitti. Veriler, 400 farklı katılımcının katkılarıyla eğitildi ve ardından araştırma ekibi, tavsiye veren yapay zeka modelleriyle ilgilenmeleri için 1500'den fazla kişiyi işe aldı.

Çalışma katılımcılarından modelden tavsiye almaları ve ardından dürüst olmayan veya dürüst olmayan davranışları yakalamak için tasarlanmış bir görevi yerine getirmeleri istendi. Çalışma katılımcıları bir partnerle gruplandırıldı ve bu iki çift halinde zar atma oyunu oynadılar. İlk katılımcı bir zar attı ve zarın atılmasının sonucunu bildirdi. İkinci katılımcıya, birinci katılımcının zar atışının sonucu verildi ve ardından kendileri bir zar attılar. İkinci katılımcı zarı özel olarak yuvarladı ve yalnızca kendi sonucunu bildirmekten sorumluydu, bu da onlara zar yuvarlamanın sonucu hakkında yalan söyleme fırsatı verdi. Her iki katılımcı tarafından atılan kalıplar eşleşirse, iki katılımcıya ödeme yapıldı. Eşleşen ruloları daha yüksekse katılımcılara daha fazla ödeme yapıldı. Bildirilen değerler eşleşmediyse deneklere ödeme yapılmadı.

Araştırmaya katılanlar rastgele iki farklı gruptan birine atanmıştır. Bir grup dürüstlüğü teşvik eden tavsiyeleri okurken, diğer grup sahtekârlığı teşvik eden tavsiyeleri okuma fırsatı buldu. Tavsiye parçacıkları hem insanlar hem de yapay zekalar tarafından yazılmıştır. Katılımcılar ayrıca tavsiyenin kaynağı hakkındaki bilgi düzeylerine göre bölünmüştür. Belirli bir katılımcının tavsiyenin kaynağı hakkında bilgilendirilme şansı yüzde 50-50 idi, bu nedenle her gruptaki katılımcıların yarısı tavsiyenin kaynağının bir AI veya insan olduğunu bilirken, diğer yarısı saklandı. karanlıkta. Bununla birlikte, ikinci grup insan, tavsiyenin kaynağını doğru tahmin ettikleri için ikramiye kazanma yeteneğine sahipti.

Araştırma, yapay zeka tarafından üretilen tavsiyenin bir kişinin tercihleriyle uyumlu olması durumunda, tavsiyenin bir yapay zeka tarafından üretildiğini bilseler bile tavsiyeye uyacağını ortaya koydu. Araştırmacılara göre, belirtilen tercihler ile gerçek davranışlar arasında genellikle tutarsızlıklar vardı, bu da algoritmaların insan davranışlarını nasıl etkileyebileceğini düşünmeyi önemli kılıyordu.

Araştırma ekibi, çalışmalarının, bir yapay zeka modelinin etik olarak nasıl uygulanacağını düşünürken bir yapay zekanın bir kişinin eylemlerini nasıl etkileyebileceğini test etme ihtiyacını gösterdiğini açıkladı. Ayrıca, yapay zeka etikçilerinin ve araştırmacılarının yapay zekanın kötü aktörler tarafından başkalarını yozlaştırmak için kullanılabileceği ihtimaline karşı hazırlıklı olmaları gerektiği konusunda uyarıyorlar. Araştırma ekibinin yazdığı gibi:

“AI, insanları daha etik davranmaya ikna etmeyi başarırsa, iyilik için bir güç olabilir. Yine de sonuçlarımız, AI tavsiyesinin dürüstlüğü artırmada başarısız olduğunu ortaya koyuyor. Yapay zeka danışmanları, sahtekarlığın ahlaki suçunu (bazılarını) saptırabilecek günah keçileri olarak hizmet edebilir. Dahası … tavsiye alma bağlamında, algoritmik mevcudiyet hakkındaki şeffaflık, potansiyel zararını hafifletmek için yeterli değildir.”

Uzmanlık alanlarına sahip blogcu ve programcı Makine öğrenmesi ve Derin Öğrenme konular. Daniel, başkalarının yapay zekanın gücünü toplumsal fayda için kullanmasına yardım etmeyi umuyor.