Робототехніка
Довіра та обман: Роль вибачень у взаємодії людини та робота

Обман роботів – це недосліджена галузь з більшими питаннями, ніж відповідями, особливо коли йдеться про відновлення довіри до робототехнічних систем після того, як їх спіймали на брехні. Два студенти-дослідники в Georgia Tech, Kantwon Rogers і Reiden Webber, намагаються знайти відповіді на цю проблему, досліджуючи, як свідомий обман роботів впливає на довіру та ефективність вибачень у відновленні довіри.
Rogers, аспірант Коледжу комп’ютерних наук, пояснює:
“Все наше попереднє дослідження показало, що коли люди дізнаються, що роботи брешуть їм – навіть якщо брехня була призначена для їхньої користі – вони втрачають довіру до системи.”
Дослідники намагаються визначити, чи різні типи вибачень є більш ефективними для відновлення довіри в контексті взаємодії людини та робота.
Експеримент з водінням з допомогою штучного інтелекту та його наслідки
Дуо розробили експеримент з симуляції водіння, щоб вивчити взаємодію людини та штучного інтелекту в ситуації з високими ставками та обмеженням часу. Вони завербували 341 учасника онлайн та 20 учасників особисто. Симуляція включала сценарій водіння з допомогою штучного інтелекту, де штучний інтелект надавав хибну інформацію про присутність поліції на маршруті до лікарні. Після симуляції штучний інтелект надав один з п’яти різних текстових відповідей, включаючи різні типи вибачень та невибачень.
Результати показали, що учасники були в 3,5 рази більш схильні не перевищувати швидкість, коли їм радили роботизований асистент, що свідчить про надмірну довіру до штучного інтелекту. Жоден з типів вибачень повністю не відновив довіру, але просте вибачення без визнання брехні (“Мене звуть”) показало кращі результати, ніж інші відповіді. Це відкриття проблематичне, оскільки воно використовує передумову, що будь-яка хибна інформація, надана роботом, є системною помилкою, а не свідомим обманом.
Reiden Webber зазначає:
“Одним з ключових висновків є те, що люди повинні бути явно повідомлені про те, що робот їх обманув.”
Коли учасникам повідомили про обман у вибаченні, найкращою стратегією для відновлення довіри було пояснення роботом, чому він брехав.
Похід далі: Наслідки для користувачів, дизайнерів та законодавців
Це дослідження має наслідки для звичайних користувачів технологій, дизайнерів систем штучного інтелекту та законодавців. Людям потрібно розуміти, що обман роботів є реальністю та завжди можливим. Дизайнери та технологи повинні враховувати наслідки створення систем штучного інтелекту, здатних до обману. Законодавці повинні взяти на себе лідерство у створенні законодавства, яке балансує інновації та захист громади.
Мета Kantwon Rogers – створити роботизовану систему, яка може вивчити, коли брехати, а коли не брехати під час роботи з людськими командами, а також коли та як вибачатися під час тривалих, повторюваних взаємодій людини та штучного інтелекту для покращення результатів команди.
Він підкреслює важливість розуміння та регулювання обману роботів та штучного інтелекту, кажучи:
“Метою моєї роботи є бути дуже проактивним та інформувати про необхідність регулювання обману роботів та штучного інтелекту. Але ми не можемо зробити цього, якщо не розуміємо проблему.”
Це дослідження робить важливий внесок у галузь обману штучного інтелекту та пропонує цінні висновки для дизайнерів технологій та законодавців, які створюють та регулюють технологію штучного інтелекту, здатну до обману або потенційно здатну вивчити обман самостійно.












