Connect with us

Довіра та обман: Роль вибачень у взаємодії людини та робота

Робототехніка

Довіра та обман: Роль вибачень у взаємодії людини та робота

mm

Обман роботів – це недосліджена галузь з більшими питаннями, ніж відповідями, особливо коли йдеться про відновлення довіри до робототехнічних систем після того, як їх спіймали на брехні. Два студенти-дослідники в Georgia Tech, Kantwon Rogers і Reiden Webber, намагаються знайти відповіді на цю проблему, досліджуючи, як свідомий обман роботів впливає на довіру та ефективність вибачень у відновленні довіри.

Rogers, аспірант Коледжу комп’ютерних наук, пояснює:

“Все наше попереднє дослідження показало, що коли люди дізнаються, що роботи брешуть їм – навіть якщо брехня була призначена для їхньої користі – вони втрачають довіру до системи.”

Дослідники намагаються визначити, чи різні типи вибачень є більш ефективними для відновлення довіри в контексті взаємодії людини та робота.

Експеримент з водінням з допомогою штучного інтелекту та його наслідки

Дуо розробили експеримент з симуляції водіння, щоб вивчити взаємодію людини та штучного інтелекту в ситуації з високими ставками та обмеженням часу. Вони завербували 341 учасника онлайн та 20 учасників особисто. Симуляція включала сценарій водіння з допомогою штучного інтелекту, де штучний інтелект надавав хибну інформацію про присутність поліції на маршруті до лікарні. Після симуляції штучний інтелект надав один з п’яти різних текстових відповідей, включаючи різні типи вибачень та невибачень.

Результати показали, що учасники були в 3,5 рази більш схильні не перевищувати швидкість, коли їм радили роботизований асистент, що свідчить про надмірну довіру до штучного інтелекту. Жоден з типів вибачень повністю не відновив довіру, але просте вибачення без визнання брехні (“Мене звуть”) показало кращі результати, ніж інші відповіді. Це відкриття проблематичне, оскільки воно використовує передумову, що будь-яка хибна інформація, надана роботом, є системною помилкою, а не свідомим обманом.

Reiden Webber зазначає:

“Одним з ключових висновків є те, що люди повинні бути явно повідомлені про те, що робот їх обманув.”

Коли учасникам повідомили про обман у вибаченні, найкращою стратегією для відновлення довіри було пояснення роботом, чому він брехав.

Похід далі: Наслідки для користувачів, дизайнерів та законодавців

Це дослідження має наслідки для звичайних користувачів технологій, дизайнерів систем штучного інтелекту та законодавців. Людям потрібно розуміти, що обман роботів є реальністю та завжди можливим. Дизайнери та технологи повинні враховувати наслідки створення систем штучного інтелекту, здатних до обману. Законодавці повинні взяти на себе лідерство у створенні законодавства, яке балансує інновації та захист громади.

Мета Kantwon Rogers – створити роботизовану систему, яка може вивчити, коли брехати, а коли не брехати під час роботи з людськими командами, а також коли та як вибачатися під час тривалих, повторюваних взаємодій людини та штучного інтелекту для покращення результатів команди.

Він підкреслює важливість розуміння та регулювання обману роботів та штучного інтелекту, кажучи:

“Метою моєї роботи є бути дуже проактивним та інформувати про необхідність регулювання обману роботів та штучного інтелекту. Але ми не можемо зробити цього, якщо не розуміємо проблему.”

Це дослідження робить важливий внесок у галузь обману штучного інтелекту та пропонує цінні висновки для дизайнерів технологій та законодавців, які створюють та регулюють технологію штучного інтелекту, здатну до обману або потенційно здатну вивчити обман самостійно.

Алекс Макфарленд - журналіст та письменник з питань штучного інтелекту, який досліджує останні розробки в галузі штучного інтелекту. Він співпрацював з численними стартапами та виданнями з штучного інтелекту у світі.