Connect with us

Доверие и обман: роль извинений в взаимодействии человека и робота

Робототехника

Доверие и обман: роль извинений в взаимодействии человека и робота

mm

Обман робота – это недостаточно изученная область с большим количеством вопросов, чем ответов, особенно когда речь идет о восстановлении доверия к роботизированным системам после того, как они были пойманы на лжи. Два студенческих исследователя в Georgia Tech, Kantwon Rogers и Reiden Webber, пытаются найти ответы на эту проблему, изучая, как намеренный обман робота влияет на доверие и эффективность извинений в восстановлении доверия.

Rogers, аспирант в Колледже информатики, объясняет:

“Все наши предыдущие работы показали, что когда люди узнают, что роботы лгали им – даже если ложь была предназначена для их пользы – они теряют доверие к системе.”

Исследователи стремятся определить, являются ли разные типы извинений более эффективными в восстановлении доверия в контексте взаимодействия человека и робота.

Эксперимент с помощью ИИ-ассистированного вождения и его последствия

Дуэт разработал эксперимент по симуляции вождения, чтобы изучить взаимодействие человека и ИИ в ситуации с высокими ставками и ограниченным временем. Они привлекли 341 онлайн-участника и 20 участников лично. Симуляция включала сценарий вождения с помощью ИИ, который предоставлял ложную информацию о присутствии полиции на маршруте к больнице. После симуляции ИИ предоставил один из пяти разных текстовых ответов, включая различные типы извинений и не-извинений.

Результаты показали, что участники были в 3,5 раза более вероятно не превышать скорость, когда им советовал роботизированный помощник, указывая на чрезмерно доверчивое отношение к ИИ. Ни один из типов извинений полностью не восстановил доверие, но простое извинение без признания лжи (“Мне жаль”) превзошло другие ответы. Этот результат проблематичен, поскольку он использует предвзятое представление о том, что любая ложная информация, предоставленная роботом, является системной ошибкой, а не намеренным обманом.

Reiden Webber отмечает:

“Одним из ключевых выводов является то, что для того, чтобы люди понимали, что робот обманул их, им необходимо явно об этом сказать.”

Когда участники были проинформированы об обмане в извинении, лучшей стратегией для восстановления доверия было объяснение робота, почему он солгал.

Перспективы: последствия для пользователей, разработчиков и политиков

Это исследование имеет последствия для обычных пользователей технологий, разработчиков систем ИИ и политиков. Для людей важно понять, что обман робота является реальным и всегда возможным. Разработчики и технологи должны учитывать последствия создания систем ИИ, способных к обману. Политики должны взять на себя лидерство в разработке законодательства, которое балансирует инновации и защиту общества.

Kantwon Rogers ставит своей целью создать роботизированную систему, которая может учиться, когда лгать и когда не лгать при работе с человеческими командами, а также когда и как извиняться во время долгосрочных, повторяющихся взаимодействий человека и ИИ, чтобы повысить производительность команды.

Он подчеркивает важность понимания и регулирования обмана робота и ИИ, говоря:

“Цель моей работы – быть очень активной и информировать о необходимости регулирования обмана робота и ИИ. Но мы не можем сделать это, если не поймем проблему.”

Это исследование вносит важный вклад в область обмана ИИ и предлагает ценные идеи для разработчиков технологий и политиков, которые создают и регулируют технологию ИИ, способную к обману или потенциально обучающуюся обману самостоятельно.

Алекс Макфарленд - журналист и писатель в области искусственного интеллекта, исследующий последние разработки в этой области. Он сотрудничал с многочисленными стартапами и изданиями в области искусственного интеллекта во всем мире.