Connect with us

Дослідження показує, що робототехніка більш переконлива, коли вона маскується під людину

Робототехніка

Дослідження показує, що робототехніка більш переконлива, коли вона маскується під людину

mm

Завдяки досягненням у галузі штучного інтелекту були створені боти та машини, які потенційно можуть видавати себе за людей, якщо вони взаємодіють з людьми виключно через цифровий засіб. Нещодавно команда дослідників комп’ютерних наук вивчила, як робототехніка/машини та люди взаємодіють, коли люди вважають, що робототехніка також людська. Як повідомляє ScienceDaily, результати дослідження показали, що люди вважають робототехніку/чат-ботів більш переконливими, коли вони вважають, що боти людські.

Талал Рахван, асоційований професор комп’ютерних наук у NYU Abu Dhabi, нещодавно очолив дослідження, яке вивчило, як робототехніка та люди взаємодіють один з одним. Результати експерименту були опубліковані в Nature Machine Intelligence у звіті під назвою Transparency-Efficiency Tradeoff in Human-Machine Cooperation. У ході дослідження учасникам було доручено грати у кооперативну гру з партнером, і партнер міг бути або людиною, або ботом.

Гра була варіантом класичної ділеми в’язня, де учасники повинні вирішувати, чи кооперувати, чи зрадити іншого на кожному раунді. У ділемі в’язня одна сторона може обрати зраду та зрадити свого партнера, щоб досягти вигоди за рахунок іншого гравця, і лише кооперуючись, обидві сторони можуть забезпечити собі вигоду.

Дослідники маніпулювали своїми учасниками, надавши їм правильну або неправильну інформацію про ідентичність їхнього партнера. Деяким учасникам було сказано, що вони грають з ботом, хоча їхній партнер був насправді людиною. Інші учасники були в інверсній ситуації. У ході експерименту команда дослідників змогла кількісно оцінити, чи люди ставилися до партнерів по-різному, коли їм казали, що їхні партнери боти. Дослідники відстежували ступінь упередженості проти ботів та те, як ці ставлення впливають на взаємодію з ботами, які ідентифікують себе.

Результати експерименту показали, що боти були більш ефективними у сприянні кооперації з боку своїх партнерів, коли людина вважала, що бот також людина. Однак, коли було розкрито, що бот був ботом, рівень кооперації знижувався. Рахван пояснив, що хоча багато вчених і етиків погоджуються з тим, що штучний інтелект повинен бути прозорим щодо того, як приймаються рішення, менш зрозуміло, що вони повинні бути прозорими щодо своєї природи під час спілкування з іншими.

Минулого року Google Duplex зробив фурор, коли на сцені було продемонстровано, що він здатний здійснювати телефонні дзвінки та бронювати призначення від імені свого користувача, генеруючи людську мову так складно, що багато людей могли б помилитися її за справжню людину, якщо б їм не сказали, що вони розмовляють з ботом. Після дебюту Google Duplex багато етиків штучного інтелекту та робототехніки висловили свої побоювання щодо технології, що змусило Google заявити, що агент буде ідентифікувати себе як бот у майбутньому. Наразі Google Duplex використовується лише у дуже обмеженому обсязі. Він скоро буде використовуватися в Новій Зеландії, але тільки для перевірки робочих годин підприємств. Етики все ще турбуються про ступінь, у якій технологію можна неправильно використовувати.

Рахаван вважає, що недавнє дослідження демонструє, що нам слід розглянути, які витрати ми готові заплатити в обмін на прозорість:

“Чи етично розробляти таку систему? Чи повинні ми заборонити ботам видавати себе за людей та змусити їх бути прозорими щодо того, хто вони? Якщо відповідь “Так”, то наші висновки підкреслюють необхідність встановлення стандартів для витрат на ефективність, яку ми готові заплатити в обмін на таку прозорість.”

Блогер і програміст з спеціалізацією у темах Machine Learning і Deep Learning. Даніель сподівається допомогти іншим використовувати силу штучного інтелекту для соціальної добробути.