заглушки Доверие и обман: роль извинений во взаимодействии человека и робота - Unite.AI
Свяжитесь с нами:

Робототехника

Доверие и обман: роль извинений во взаимодействии человека и робота

опубликованный

 on

Источник: Технологический институт Джорджии.

Обман роботов — малоизученная область, в которой больше вопросов, чем ответов, особенно когда речь идет о восстановлении доверия к роботизированным системам после того, как они были уличены во лжи. Два студента-исследователя из Технологического института Джорджии, Кантвон ​​Роджерс и Рейден Уэббер, пытаются найти ответы на этот вопрос, исследуя, как преднамеренный обман роботов влияет на доверие и эффективность извинений в восстановлении доверия.

Роджерс, доктор философии. студент компьютерного колледжа, объясняет:

«Вся наша предыдущая работа показала, что, когда люди узнают, что роботы солгали им — даже если ложь была предназначена для их выгоды — они теряют доверие к системе».

Исследователи стремятся определить, являются ли различные типы извинений более эффективными для восстановления доверия в контексте взаимодействия человека и робота.

Эксперимент по вождению с искусственным интеллектом и его последствия

Дуэт разработал эксперимент по моделированию вождения для изучения взаимодействия человека и искусственного интеллекта в сложной ситуации, зависящей от времени. Они набрали 341 онлайн-участника и 20 очных участников. Симуляция включала сценарий вождения с помощью ИИ, в котором ИИ предоставлял ложную информацию о присутствии полиции на пути к больнице. После моделирования ИИ предоставил один из пяти различных текстовых ответов, включая различные типы извинений и отказов от извинений.

Ассоциация Результаты показали, что участники в 3.5 раза чаще не превышали скорость, когда им советовал робот-помощник, что указывает на чрезмерно доверчивое отношение к ИИ. Ни один из типов извинения полностью не восстановил доверие, но простое извинение без признания лжи («извините») превзошло другие ответы. Этот вывод проблематичен, поскольку он использует предвзятое представление о том, что любая ложная информация, предоставленная роботом, является системной ошибкой, а не преднамеренной ложью.

Рейден Уэббер отмечает:

«Один ключевой вывод заключается в том, что для того, чтобы люди поняли, что робот их обманул, им нужно прямо сказать об этом».

Когда участникам стало известно об обмане в извинениях, лучшей стратегией восстановления доверия было объяснение роботом, почему он солгал.

Движение вперед: последствия для пользователей, разработчиков и политиков

Это исследование имеет значение для обычных пользователей технологий, разработчиков систем ИИ и политиков. Крайне важно, чтобы люди понимали, что роботизированный обман реален и всегда возможен. Дизайнеры и технологи должны учитывать последствия создания систем ИИ, способных к обману. Политики должны играть ведущую роль в разработке законодательства, которое уравновешивает инновации и защиту общества.

Цель Кантвона Роджерса — создать роботизированную систему, которая может учиться, когда лгать и когда не лгать при работе с людьми, а также когда и как извиняться во время долгосрочных, повторяющихся взаимодействий человека и ИИ для повышения производительности команды.

Он подчеркивает важность понимания и регулирования обмана роботов и ИИ, говоря:

«Цель моей работы — быть очень активным и информировать о необходимости регулировать обман роботов и ИИ. Но мы не можем этого сделать, если не понимаем проблему».

Это исследование дает жизненно важные знания в области обмана ИИ и предлагает ценную информацию для разработчиков технологий и политиков, которые создают и регулируют технологию ИИ, способную обманывать или потенциально обучающуюся обману самостоятельно.

Алекс МакФарланд — журналист и писатель, занимающийся искусственным интеллектом. Он сотрудничал с многочисленными стартапами и публикациями в области искусственного интеллекта по всему миру.