Bizimle iletişime geçin

Robotik

Çalışma, Robotların İnsan Gibi Davrandıklarında Daha İkna Edici Olduğunu Öneriyor

mm

Yapay zekadaki gelişmeler, insanlarla yalnızca dijital bir ortam aracılığıyla etkileşime girerlerse potansiyel olarak insan olarak geçebilecek robotlar ve makineler yarattı. Son zamanlarda, bilgisayar bilimi araştırmacılarından oluşan bir ekip, insanlar robotların da insan olduğuna inandıklarında robotların/makinelerin ve insanların nasıl etkileşime girdiğini inceledi. ScienceDaily tarafından bildirildiği üzere, çalışmanın sonuçları, insanların botların insan olduğuna inandıklarında robotları/sohbet robotlarını daha ikna edici bulduklarını buldu.

NYU Abu Dabi'de Bilgisayar Bilimleri doçenti Talal Rahwan, yakın zamanda robotların ve insanların birbirleriyle nasıl etkileşime girdiğini inceleyen bir araştırmaya öncülük etti. Deneyin sonuçları dergide yayınlandı. Doğa Makine Zekası İnsan-Makine İşbirliğinde Şeffaflık-Verimlilik Dengesi adlı bir raporda. Çalışma sırasında, deneklere bir partnerle işbirlikçi bir oyun oynamaları talimatı verildi ve partner bir insan ya da bot olabilir.

Oyun, katılımcıların her turda işbirliği yapıp yapmamaya ya da birbirlerine ihanet etmeye karar vermeleri gereken klasik Tutukluların İkilemi'nin bir dönüşüydü. Bir mahkumun ikileminde, bir taraf diğer oyuncuya bir fayda sağlamak için ortağına ihanet etmeyi ve ihanet etmeyi seçebilir ve her iki taraf da yalnızca işbirliği yaparak kazanç sağlayabilir.

Araştırmacılar, eşlerinin kimliği hakkında doğru ya da yanlış bilgiler vererek deneklerini manipüle ettiler. Bazı katılımcılara, partnerleri aslında insan olmasına rağmen bir botla oynadıkları söylendi. Diğer katılımcılar ters durumdaydı. Deney boyunca, araştırma ekibi, ortaklarının bot olduğu söylendiğinde insanların ortaklara farklı davranıp davranmadıklarını ölçebildi. Araştırmacılar, botlara karşı herhangi bir önyargının ne derece var olduğunu ve bu tutumların kendilerini tanımlayan botlarla olan etkileşimleri nasıl etkilediğini izlediler.

Deneyin sonuçları, insan botun da bir insan olduğuna inandığında botların ortaklarından işbirliği sağlamada daha etkili olduğunu gösterdi. Ancak botun bir bot olduğu ortaya çıkınca işbirliği seviyeleri düştü. Rahwan, birçok bilim insanı ve etik uzmanının, yapay zekanın kararların nasıl alındığı konusunda şeffaf olması gerektiği konusunda hemfikir olsa da, başkalarıyla iletişim kurarken doğaları hakkında da şeffaf olmaları gerektiği konusunda daha az net olduğunu açıkladı.

Geçen yıl, Google Duplex, bir sahne demosu, kullanımı adına telefon aramaları yapabildiğini ve randevu ayarlayabildiğini ve insan benzeri konuşmalar üretebildiğini gösterdiğinde bir sıçrama yaptı; bir botla konuştukları söylenmedi. Google Duplex'in piyasaya sürülmesinden bu yana, birçok AI ve robot etiği uzmanı, teknolojiyle ilgili endişelerini dile getirerek Google'ın şunu söylemesini istedi: temsilcinin kendini tanıtmasını sağlar Gelecekte bir bot olarak. Şu anda Google Duplex yalnızca kullanılıyor çok sınırlı bir kapasitede. yakında olacak Yeni Zelanda'da kullanıma bakın, ancak yalnızca işletmelerin çalışma saatlerini kontrol etmek için. Etikçiler, teknolojinin ne ölçüde kötüye kullanılabileceği konusunda hala endişeli.

Rahawan tartışıyor son araştırma, şeffaflık karşılığında hangi maliyetleri ödemeye hazır olduğumuzu düşünmemiz gerektiğini gösteriyor:

"Böyle bir sistem geliştirmek etik mi? Botların insan gibi davranmasını yasaklayıp, kim oldukları konusunda şeffaf olmalarını zorunlu kılmalı mıyız? Cevap 'Evet' ise, bulgularımız, bu şeffaflık karşılığında ödemeye razı olduğumuz verimlilik maliyeti için standartlar belirlememiz gerektiğini vurguluyor."

Uzmanlık alanlarına sahip blogcu ve programcı Makine öğrenmesi ve Derin Öğrenme konular. Daniel, başkalarının yapay zekanın gücünü toplumsal fayda için kullanmasına yardım etmeyi umuyor.