Connect with us

Robotika

Studi Menunjukkan Bahwa Robot Lebih Meyakinkan Ketika Mereka Berpura-pura Menjadi Manusia

mm

Kemajuan dalam kecerdasan buatan telah menciptakan bot dan mesin yang berpotensi untuk melewati sebagai manusia jika mereka berinteraksi dengan orang secara eksklusif melalui media digital. Baru-baru ini, tim peneliti ilmu komputer telah mempelajari bagaimana robot/mesin dan manusia berinteraksi ketika manusia percaya bahwa robot juga manusia. Seperti yang dilaporkan oleh ScienceDaily, hasil studi menemukan bahwa orang menemukan robot/chatbot lebih meyakinkan ketika mereka percaya bahwa bot adalah manusia.

Talal Rahwan, profesor asosiasi Ilmu Komputer di NYU Abu Dhabi, baru-baru ini memimpin sebuah studi yang mengeksaminasi bagaimana robot dan manusia berinteraksi dengan satu sama lain. Hasil eksperimen dipublikasikan di Nature Machine Intelligence dalam laporan yang disebut Transparency-Efficiency Tradeoff in Human-Machine Cooperation. Selama studi, subjek uji diminta untuk bermain game kooperatif dengan mitra, dan mitra mungkin manusia atau bot.

Permainan tersebut adalah variasi dari Prisoner’s Dilemma klasik, di mana peserta harus memutuskan apakah akan bekerja sama atau mengkhianati yang lain pada setiap putaran. Dalam dilema tahanan, satu sisi mungkin memilih untuk mengkhianati dan mengkhianati mitra mereka untuk mencapai keuntungan dengan biaya yang lain, dan hanya dengan bekerja sama dapat kedua belah pihak memastikan keuntungan.

Peneliti memanipulasi subjek uji mereka dengan memberikan informasi yang benar atau salah tentang identitas mitra mereka. Beberapa peserta diberitahu bahwa mereka bermain dengan bot, meskipun mitra mereka sebenarnya manusia. Peserta lain berada dalam situasi yang sebaliknya. Selama eksperimen, tim peneliti dapat mengukur apakah orang memperlakukan mitra mereka secara berbeda ketika mereka diberitahu bahwa mitra mereka adalah bot. Peneliti melacak derajat di mana prasangka terhadap bot ada, dan bagaimana sikap ini mempengaruhi interaksi dengan bot yang mengidentifikasi diri mereka.

Hasil eksperimen menunjukkan bahwa bot lebih efektif dalam memicu kerja sama dari mitra mereka ketika manusia percaya bahwa bot adalah manusia. Namun, ketika terungkap bahwa bot adalah bot, tingkat kerja sama menurun. Rahwan menjelaskan bahwa sementara banyak ilmuwan dan ahli etika setuju bahwa AI harus transparan tentang bagaimana keputusan dibuat, kurang jelas bahwa mereka juga harus transparan tentang sifat mereka ketika berkomunikasi dengan orang lain.

Tahun lalu, Google Duplex membuat kehebohan ketika demo panggung menunjukkan bahwa itu dapat melakukan panggilan telepon dan memesan janji temu atas nama penggunanya, menghasilkan ucapan yang sangat mirip manusia sehingga banyak orang akan salah mengira itu sebagai orang nyata jika mereka tidak diberitahu bahwa mereka berbicara dengan bot. Sejak debut Google Duplex, banyak ahli etika AI dan robot mengungkapkan kekhawatiran mereka tentang teknologi ini, yang meminta Google untuk mengatakan bahwa agen tersebut akan mengidentifikasi dirinya sebagai bot di masa depan. Saat ini, Google Duplex hanya digunakan dalam kapasitas yang sangat terbatas. Ini akan segera digunakan di Selandia Baru, tetapi hanya untuk memeriksa jam operasional bisnis. Ahli etika masih khawatir tentang seberapa besar teknologi ini dapat disalahgunakan.

Rahawan berpendapat bahwa studi terbaru menunjukkan bahwa kita harus mempertimbangkan biaya apa yang kita bayar untuk transparansi:

“Apakah etis untuk mengembangkan sistem seperti ini? Haruskah kita melarang bot untuk berpura-pura menjadi manusia, dan memaksa mereka untuk transparan tentang siapa mereka? Jika jawabannya adalah ‘Ya’, maka temuan kami menyoroti kebutuhan untuk menetapkan standar untuk biaya efisiensi yang kita bayar untuk transparansi tersebut.”

Blogger dan programmer dengan spesialisasi di Machine Learning dan Deep Learning topik. Daniel berharap untuk membantu orang lain menggunakan kekuatan AI untuk kebaikan sosial.