заглушки Роботы, способствующие риску, отвергают непосредственный опыт и инстинкты в новом исследовании - Unite.AI
Свяжитесь с нами:

Этика

Роботы, способствующие риску, перевешивают непосредственный опыт и инстинкты в новом исследовании

обновленный on

Новое исследование Университета Саутгемптона демонстрирует, как роботы могут побуждать людей идти на больший риск по сравнению с тем, если бы на их поведение ничего не влияло. Эксперименты, проведенные в симулированном сценарии азартных игр, помогают экспертам лучше понять поведение, связанное с риском, и робототехнику как с этической, так и с практической точки зрения.

Исследование возглавил доктор Янив Ханох, адъюнкт-профессор управления рисками Университета Саутгемптона. Оно было опубликовано в журнале Кибербезопасность, поведение и социальные сети.

«Мы знаем, что давление со стороны сверстников может привести к более рискованному поведению», — сказал доктор Ханох. «С постоянно растущим масштабом взаимодействия между людьми и технологиями, как онлайн, так и физически, крайне важно, чтобы мы больше понимали, могут ли машины оказывать аналогичное влияние».

Эксперимент

В исследовании приняли участие 180 студентов бакалавриата, которые выполнили задание «Аналоговый риск на воздушном шаре» (BART), которое представляет собой компьютерную оценку, требующую, чтобы пользователи надували воздушный шар на экране, нажимая клавишу пробела на клавиатуре. Воздушный шар немного надувается при каждом нажатии, и каждый раз игроки получают один пенни в свой «временный денежный банк». Воздушные шары могут взорваться в любое время, в результате чего игрок потеряет деньги, но у него есть возможность «обналичить», прежде чем надувать воздушный шар еще больше.

Треть участников, составлявших контрольную группу, проходили тест в одиночестве в своих комнатах. Еще одна треть проходила тест в сопровождении робота, который только инструктировал, а в остальном совершенно молчал. Последняя группа, которая была экспериментальной, проходила тест вместе с роботом, который давал инструкции и произносил ободряющие утверждения, такие как «почему вы перестали качать».

Эта третья группа, которую поощрял робот, проявляла более рискованное поведение, чем другие группы, чаще надувая воздушные шары. В то же время они зарабатывали больше денег по сравнению с другими группами. Что касается групп, сопровождаемых бесшумным роботом и без него, между ними не было существенной разницы.

«Мы видели, как участники в контрольных условиях снизили свое рискованное поведение после взрыва воздушного шара, тогда как участники в экспериментальных условиях продолжали рисковать так же, как и раньше», — сказал доктор Ханох. «Таким образом, получение прямого поощрения от робота, поощряющего риск, кажется, перевешивает непосредственный опыт и инстинкты участников».

Исследователи проведут дальнейшие исследования, чтобы лучше понять взаимодействие человека с другими системами искусственного интеллекта (ИИ), включая цифровых помощников.

«С широким распространением технологии искусственного интеллекта и ее взаимодействием с людьми эта область требует срочного внимания со стороны исследовательского сообщества», — продолжил доктор Ханох.

«С одной стороны, наши результаты могут вызвать тревогу по поводу того, что роботы могут причинять вред, увеличивая рискованное поведение. С другой стороны, наши данные указывают на возможность использования роботов и ИИ в профилактических программах, таких как кампании по борьбе с курением в школах, и с труднодоступными группами населения, такими как наркоманы».

Алекс МакФарланд — журналист и писатель, занимающийся искусственным интеллектом. Он сотрудничал с многочисленными стартапами и публикациями в области искусственного интеллекта по всему миру.