Connect with us

Дослідники створили робота, який демонструє базову емпатію до робота-партнера

Робототехніка

Дослідники створили робота, який демонструє базову емпатію до робота-партнера

mm

Останнє дослідження успішно наділило робота примітивною формою емпатії, що дозволяє роботові передбачати цілі та дії свого робота-партнера.

Команда інженерів з Колумбійського університету школи інженерії та прикладних наук розробила робота, який може успішно передбачити дії та цілі партнера-робота на основі декількох кадрів відео. Інженери стверджують, що робот і його штучний інтелект демонструють примітивну форму емпатії, і що майбутні дослідження в цій галузі можуть допомогти наділити роботів “теорією розуму”.

Останнє дослідження було проведено під керівництвом професора Хода Ліпсона лабораторії творчих машин Колумбійського університету. Дослідження, проведене Ліпсоном і його командою, є лише частиною більшої академічної спроби наділити роботів можливістю розуміти та передбачати цілі інших роботів, і потенційно людей. Це передбачення повинно бути зроблено повністю через аналіз даних, зібраних сенсорами, перш за все візуальних даних.

Робот, який спостерігає за роботом

Команда дослідників створила робота, який працює в ігровому дворі площею близько 6 квадратних футів. Робот був запрограмований на пошук зелених кіл і рух до цих кіл, але не всі зелені кола в дворі були видимі для робота. Деякі з цільових зелених кіл були легко помітні з початкової позиції робота, але інші кола були приховані за великою картонною коробкою.

Другий робот був запрограмований на спостереження за першим роботом, спостерігаючи за роботом у дворі протягом приблизно двох годин. Після спостереження за своїм партнером-роботом, спостерігач-робот був здатний передбачити як цілі, так і шляхи свого партнера більшості часу. Спостерігач-робот був здатний правильно передбачити шлях, яким рухався інший робот, з точністю 98%, хоча спостерігач-робот не знав про нездатність досліджувального робота бачити за коробкою.

Один з головних авторів дослідження, Боюань Чен, пояснив через ScienceDaily, що результати дослідження демонструють здатність роботів інтерпретувати світ з точки зору іншого робота.

“Здатність спостерігача поставити себе на місце свого партнера, так би мовити, і зрозуміти, без керівництва, чи його партнер може чи не може бачити зелене коло з його точки зору, є, можливо, примітивною формою емпатії”, – пояснив Чен.

Команда дослідників очікувала, що спостерігач-робот зможе передбачити короткострокові дії досліджувального робота, але те, що вони виявили, було тим, що спостерігач-робот був здатний передбачити не тільки короткострокові дії, але й довгострокові дії на основі лише декількох кадрів відео.

“Теорія розуму”

Очевидно, що поведінка, яку демонструє досліджувальний робот, простіша, ніж багато дій, виконуваних людьми, і тому передбачення цілей і поведінки людей ще досить далеко. Однак дослідники стверджують, що те, що є спільним між передбаченням дій людини і діями робота, є застосуванням “теорії розуму”. Психологічні дослідження показують, що люди починають розвивати теорію розуму близько трьох років. Теорія розуму необхідна для співробітництва, емпатії та обману. Команда дослідників сподівається, що подальші дослідження технологій, що керують взаємодією між їхніми роботами, допоможуть вченим розробити ще більш досконалі роботів.

Як вже згадувалося, хоча емпатія зазвичай вважається позитивною рисою, яка дозволяє співробітництво, вона також необхідна для більш негативних дій, таких як обман. Щоб успішно обманути когось, потрібно зрозуміти його бажання та наміри. Це відкриває деякі етичні питання, оскільки коли роботам можна потенційно обманути людей, що зупинить їх від використання цих роботів для маніпулювання та шантажу людей?

Хоча спостерігач-робот був навчений виключно на основі даних зображень, Ліпсон вважає, що в принципі подібну передбачувальну систему можна розробити на основі людської мови, зазначаючи, що люди часто уявляють речі в своєму розумовому зоровому полі, думаючи візуально.

Зусилля колумбійської команди дослідників є частиною більшої спроби наділити штучний інтелект теорією розуму та емпатією. Юан Метьюз, директор з штучного інтелекту та інновацій у Contact Engine, недавно стверджував, що щоб штучні інтелекти стали більш емпатичними, їм потрібно буде能够 розглядати декілька намірів, а не тільки один. Люди часто мають декілька намірів, іноді конфліктні бажання та почуття щодо певної теми, і штучним інтелектам потрібно буде стати більш гнучкими при роботі з людською намірністю.

Блогер і програміст з спеціалізацією у темах Machine Learning і Deep Learning. Даніель сподівається допомогти іншим використовувати силу штучного інтелекту для соціальної добробути.