Зв'язатися з нами

Дослідження показує, що роботи більш переконливі, коли прикидаються людьми

Робототехніка

Дослідження показує, що роботи більш переконливі, коли прикидаються людьми

mm

Досягнення в області штучного інтелекту дозволили створити ботів і машин, які потенційно можуть видати себе за людей, якщо вони взаємодіють з людьми виключно через цифрове середовище. Нещодавно група дослідників з інформатики вивчила, як роботи/машини та люди взаємодіють, коли люди вірять, що роботи також є людьми. Як повідомляє ScienceDaily, результати дослідження показали, що люди вважають роботів/чат-ботів переконливішими, якщо вірять, що боти — це люди.

Талал Рахван, ад’юнкт-професор комп’ютерних наук Нью-Йоркського університету Абу-Дабі, нещодавно провів дослідження, яке вивчало, як роботи та люди взаємодіють один з одним. Результати експерименту були опубліковані в Природний машинний інтелект у звіті під назвою Компроміс прозорості та ефективності у співпраці людини та машини. У ході дослідження випробуваним було запропоновано зіграти в спільну гру з партнером, причому партнером може бути як людина, так і бот.

Гра була поворотом до класичної «Дилеми в’язня», де учасники повинні вирішувати, чи співпрацювати, чи зраджувати іншого в кожному раунді. У дилемі ув’язненого одна сторона може вирішити перейти на бік і зрадити свого партнера, щоб отримати вигоду за ціною для іншого гравця, і лише співпрацюючи, обидві сторони можуть гарантувати собі вигоду.

Дослідники маніпулювали своїми піддослідними, надаючи їм точну чи невірну інформацію про особу їхнього партнера. Деяким учасникам сказали, що вони грають з ботом, хоча їхній партнер насправді був людиною. Інші учасники були у зворотній ситуації. У ході експерименту дослідницька група змогла кількісно визначити, чи люди по-різному ставилися до партнерів, коли їм казали, що їхні партнери були ботами. Дослідники відстежували ступінь упередженого ставлення до ботів і те, як це ставлення вплинуло на взаємодію з ботами, які ідентифікували себе.

Результати експерименту показали, що боти ефективніше спонукають до співпраці своїх партнерів, коли людина вірить, що бот також є людиною. Однак коли виявилося, що бот був ботом, рівень співпраці впав. Рахван пояснив, що хоча багато вчених і етиків погоджуються з тим, що штучний інтелект має бути прозорим щодо того, як приймаються рішення, менш зрозуміло, що вони також повинні бути прозорими щодо своєї природи під час спілкування з іншими.

Минулого року Google Duplex викликав фурор, коли показова демонстрація показала, що він здатний здійснювати телефонні дзвінки та призначати зустрічі від імені свого використання, генеруючи людське мовлення настільки витончене, що багато людей прийняли б його за реальну людину, якби вони не сказали, що вони спілкуються з ботом. З моменту дебюту Google Duplex багато експертів зі штучного інтелекту та етики роботів висловили свою стурбованість цією технологією, що спонукало Google сказати, що вона дозволив би агенту ідентифікувати себе як бот у майбутньому. Наразі використовується лише Google Duplex в дуже обмеженій кількості. Скоро буде див. використання в Новій Зеландії, але лише для того, щоб перевірити години роботи підприємств. Фахівці з етики все ще стурбовані ступенем неправильного використання цієї технології.

Рахаван сперечається що нещодавнє дослідження демонструє, що ми повинні розглянути, які витрати ми готові заплатити в обмін на прозорість:

«Чи етично розвивати таку систему? Чи повинні ми заборонити роботам видавати себе за людей і змусити їх бути прозорими щодо того, ким вони є? Якщо відповідь «Так», то наші висновки підкреслюють необхідність встановлення стандартів для витрат на ефективність, які ми готові заплатити в обмін на таку прозорість».