Робототехника
Доверие и обман: роль извинений в взаимодействии человека и робота

Обман робота – это недостаточно изученная область с большим количеством вопросов, чем ответов, особенно когда речь идет о восстановлении доверия к роботизированным системам после того, как они были пойманы на лжи. Два студенческих исследователя в Georgia Tech, Kantwon Rogers и Reiden Webber, пытаются найти ответы на эту проблему, изучая, как намеренный обман робота влияет на доверие и эффективность извинений в восстановлении доверия.
Rogers, аспирант в Колледже информатики, объясняет:
“Все наши предыдущие работы показали, что когда люди узнают, что роботы лгали им – даже если ложь была предназначена для их пользы – они теряют доверие к системе.”
Исследователи стремятся определить, являются ли разные типы извинений более эффективными в восстановлении доверия в контексте взаимодействия человека и робота.
Эксперимент с помощью ИИ-ассистированного вождения и его последствия
Дуэт разработал эксперимент по симуляции вождения, чтобы изучить взаимодействие человека и ИИ в ситуации с высокими ставками и ограниченным временем. Они привлекли 341 онлайн-участника и 20 участников лично. Симуляция включала сценарий вождения с помощью ИИ, который предоставлял ложную информацию о присутствии полиции на маршруте к больнице. После симуляции ИИ предоставил один из пяти разных текстовых ответов, включая различные типы извинений и не-извинений.
Результаты показали, что участники были в 3,5 раза более вероятно не превышать скорость, когда им советовал роботизированный помощник, указывая на чрезмерно доверчивое отношение к ИИ. Ни один из типов извинений полностью не восстановил доверие, но простое извинение без признания лжи (“Мне жаль”) превзошло другие ответы. Этот результат проблематичен, поскольку он использует предвзятое представление о том, что любая ложная информация, предоставленная роботом, является системной ошибкой, а не намеренным обманом.
Reiden Webber отмечает:
“Одним из ключевых выводов является то, что для того, чтобы люди понимали, что робот обманул их, им необходимо явно об этом сказать.”
Когда участники были проинформированы об обмане в извинении, лучшей стратегией для восстановления доверия было объяснение робота, почему он солгал.
Перспективы: последствия для пользователей, разработчиков и политиков
Это исследование имеет последствия для обычных пользователей технологий, разработчиков систем ИИ и политиков. Для людей важно понять, что обман робота является реальным и всегда возможным. Разработчики и технологи должны учитывать последствия создания систем ИИ, способных к обману. Политики должны взять на себя лидерство в разработке законодательства, которое балансирует инновации и защиту общества.
Kantwon Rogers ставит своей целью создать роботизированную систему, которая может учиться, когда лгать и когда не лгать при работе с человеческими командами, а также когда и как извиняться во время долгосрочных, повторяющихся взаимодействий человека и ИИ, чтобы повысить производительность команды.
Он подчеркивает важность понимания и регулирования обмана робота и ИИ, говоря:
“Цель моей работы – быть очень активной и информировать о необходимости регулирования обмана робота и ИИ. Но мы не можем сделать это, если не поймем проблему.”
Это исследование вносит важный вклад в область обмана ИИ и предлагает ценные идеи для разработчиков технологий и политиков, которые создают и регулируют технологию ИИ, способную к обману или потенциально обучающуюся обману самостоятельно.












