Connect with us

Исследование показывает, что роботы более убедительны, когда они притворяются людьми

Робототехника

Исследование показывает, что роботы более убедительны, когда они притворяются людьми

mm

Достижения в области искусственного интеллекта создали ботов и машины, которые потенциально могут выдавать себя за людей, если они взаимодействуют с людьми исключительно через цифровой канал. Недавно команда исследователей в области компьютерных наук изучала, как роботы/машины и люди взаимодействуют, когда люди считают, что роботы также являются людьми. Как сообщает ScienceDaily, результаты исследования показали, что люди находят роботов/чат-ботов более убедительными, когда они считают, что боты являются людьми.

Талал Рахван, ассоциированный профессор компьютерных наук в Нью-Йоркском университете в Абу-Даби, недавно возглавил исследование, которое изучало, как роботы и люди взаимодействуют друг с другом. Результаты эксперимента были опубликованы в Nature Machine Intelligence в отчете под названием Transparency-Efficiency Tradeoff in Human-Machine Cooperation. В ходе исследования испытуемым было предложено сыграть в кооперативную игру с партнером, который мог быть либо человеком, либо ботом.

Игра была вариацией классической дилеммы заключенного, где участники должны были решить, сотрудничать или предать другого игрока в каждом раунде. В дилемме заключенного одна сторона может выбрать предательство и предать своего партнера, чтобы получить выгоду за счет другого игрока, и только сотрудничая можно обеспечить себе выгоду.

Исследователи манипулировали своими испытуемыми, предоставляя им либо правильную, либо неправильную информацию о личности их партнера. Некоторым участникам было сказано, что они играют с ботом, хотя их партнером на самом деле был человек. Другие участники находились в обратной ситуации. В ходе эксперимента исследовательская команда смогла количественно оценить, как люди относятся к партнерам по-разному, когда им говорят, что их партнеры являются ботами. Исследователи отслеживали степень, в которой существует предвзятость против ботов, и как эти отношения влияют на взаимодействие с ботами, которые идентифицируют себя.

Результаты эксперимента показали, что боты были более эффективны в содействии сотрудничеству со своими партнерами, когда человек считал, что бот также является человеком. Однако, когда было раскрыто, что бот является ботом, уровень сотрудничества снизился. Рахван объяснил, что, хотя многие ученые и этики согласны с тем, что ИИ должен быть прозрачным в отношении того, как принимаются решения, менее ясно, что они также должны быть прозрачными относительно своей природы при общении с другими.

В прошлом году Google Duplex вызвал ажиотаж, когда на сцене было продемонстрировано, что он может совершать телефонные звонки и бронировать встречи от имени своего пользователя, генерируя речь, похожую на человеческую, настолько сложную, что многие люди бы приняли ее за реального человека, если бы им не сказали, что они говорят с ботом. С тех пор, как Google Duplex был представлен, многие этики ИИ и роботов выразили обеспокоенность по поводу этой технологии, что заставило Google заявить, что агент будет идентифицировать себя как бот в будущем. В настоящее время Google Duplex используется в очень ограниченном объеме. Он скоро будет использоваться в Новой Зеландии, но только для проверки часов работы бизнеса. Этики все еще обеспокоены тем, насколько эта технология может быть неправильно использована.

Рахаван утверждает, что недавнее исследование показывает, что мы должны рассмотреть, какие затраты мы готовы понести в обмен на прозрачность:

“Этично ли разрабатывать такую систему? Должны ли мы запретить ботам выдавать себя за людей и заставить их быть прозрачными относительно того, кто они есть? Если ответ ‘да’, то наши результаты подчеркивают необходимость установления стандартов для затрат на эффективность, которые мы готовы понести в обмен на такую прозрачность.”

Блогер и программист с специализацией в Machine Learning и Deep Learning темах. Daniel надеется помочь другим использовать силу ИИ для социального блага.