Свяжитесь с нами:

Доверие и обман: роль извинений во взаимодействии человека и робота

Робототехника

Доверие и обман: роль извинений во взаимодействии человека и робота

mm
Источник: Технологический институт Джорджии.

Обман роботов — малоизученная область, в которой больше вопросов, чем ответов, особенно когда речь идет о восстановлении доверия к роботизированным системам после того, как они были уличены во лжи. Два студента-исследователя из Технологического института Джорджии, Кантвон ​​Роджерс и Рейден Уэббер, пытаются найти ответы на этот вопрос, исследуя, как преднамеренный обман роботов влияет на доверие и эффективность извинений в восстановлении доверия.

Роджерс, доктор философии. студент компьютерного колледжа, объясняет:

«Вся наша предыдущая работа показала, что, когда люди узнают, что роботы солгали им — даже если ложь была предназначена для их выгоды — они теряют доверие к системе».

Исследователи стремятся определить, являются ли различные типы извинений более эффективными для восстановления доверия в контексте взаимодействия человека и робота.

Эксперимент по вождению с искусственным интеллектом и его последствия

Дуэт разработал эксперимент по моделированию вождения для изучения взаимодействия человека и искусственного интеллекта в сложной ситуации, зависящей от времени. Они набрали 341 онлайн-участника и 20 очных участников. Симуляция включала сценарий вождения с помощью ИИ, в котором ИИ предоставлял ложную информацию о присутствии полиции на пути к больнице. После моделирования ИИ предоставил один из пяти различных текстовых ответов, включая различные типы извинений и отказов от извинений.

Команда результатов Выяснилось, что участники в 3.5 раза чаще не превышали скорость, следуя советам робота-помощника, что свидетельствует об излишне доверчивом отношении к ИИ. Ни один из типов извинений не восстанавливал доверие полностью, но простое извинение без признания лжи («Прошу прощения») превзошло другие варианты ответа. Этот вывод проблематичен, поскольку он эксплуатирует предвзятое представление о том, что любая ложная информация, предоставленная роботом, является системной ошибкой, а не намеренной ложью.

Рейден Уэббер отмечает:

«Один ключевой вывод заключается в том, что для того, чтобы люди поняли, что робот их обманул, им нужно прямо сказать об этом».

Когда участникам стало известно об обмане в извинениях, лучшей стратегией восстановления доверия было объяснение роботом, почему он солгал.

Движение вперед: последствия для пользователей, разработчиков и политиков

Это исследование имеет значение для обычных пользователей технологий, разработчиков систем ИИ и политиков. Крайне важно, чтобы люди понимали, что роботизированный обман реален и всегда возможен. Дизайнеры и технологи должны учитывать последствия создания систем ИИ, способных к обману. Политики должны играть ведущую роль в разработке законодательства, которое уравновешивает инновации и защиту общества.

Целью Кантвона Роджерса является создание роботизированной системы, которая сможет научиться, когда лгать, а когда нет, работая с человеческими коллективами, а также когда и как извиняться в ходе длительного, повторяющегося взаимодействия человека и искусственного интеллекта для повышения эффективности работы команды.

Он подчеркивает важность понимания и регулирования обмана роботов и ИИ, говоря:

«Цель моей работы — быть максимально проактивной и информировать о необходимости регулирования обмана роботами и искусственным интеллектом. Но мы не сможем этого сделать, если не поймём суть проблемы».

Это исследование дает жизненно важные знания в области обмана ИИ и предлагает ценную информацию для разработчиков технологий и политиков, которые создают и регулируют технологию ИИ, способную обманывать или потенциально обучающуюся обману самостоятельно.

Алекс МакФарланд — журналист и писатель, занимающийся искусственным интеллектом. Он сотрудничал с многочисленными стартапами и публикациями в области искусственного интеллекта по всему миру.