Connect with us

Является ли эксплуатация роботов универсальной или культурно-зависимой?

Робототехника

Является ли эксплуатация роботов универсальной или культурно-зависимой?

mm

Люди в Японии относятся к кооперативным искусственным агентам с тем же уровнем уважения, что и к людям, в то время как американцы значительно чаще эксплуатируют ИИ для личной выгоды, согласно новому исследованию опубликованному в Scientific Reports исследователями из LMU Munich и Waseda University Tokyo.

По мере того, как самоходные транспортные средства и другие автономные роботы ИИ становятся все более интегрированными в повседневную жизнь, культурные отношения к искусственным агентам могут определить, насколько быстро и успешно эти технологии будут реализованы в различных обществах.

Культурный разрыв в сотрудничестве между человеком и ИИ

“По мере того, как технология самоходных транспортных средств становится реальностью, эти повседневные встречи будут определять, как мы разделим дорогу с интеллектуальными машинами”, – сказал доктор Юргис Карпус, ведущий исследователь из LMU Munich, в исследовании.

Исследование представляет собой одно из первых всесторонних межкультурных исследований того, как люди взаимодействуют с искусственными агентами в сценариях, где интересы могут не всегда совпадать. Результаты исследования бросают вызов предположению, что эксплуатация алгоритмов – тенденция к использованию кооперативного ИИ – является универсальным явлением.

Результаты исследования показывают, что по мере того, как автономные технологии становятся более распространенными, общества могут столкнуться с различными проблемами интеграции на основе культурных отношений к искусственному интеллекту.

Методология исследования: Теория игр раскрывает поведенческие различия

Исследовательская группа использовала классические эксперименты по поведенческой экономике – Игру доверия и Дилемму заключенного – чтобы сравнить, как участники из Японии и США взаимодействовали с человеческими партнерами и системами ИИ.

В этих играх участники делали выбор между личными интересами и взаимной выгодой, с реальными денежными стимулами, чтобы обеспечить, что они принимали настоящие решения, а не гипотетические. Этот экспериментальный дизайн позволил исследователям直接 сравнить, как участники относились к людям и ИИ в идентичных сценариях.

Игры были тщательно структурированы, чтобы воспроизвести повседневные ситуации, включая сценарии движения, где людям необходимо решить, будут ли они сотрудничать или эксплуатировать другого агента. Участники играли несколько раундов, иногда с человеческими партнерами, а иногда с системами ИИ, что позволяло直接 сравнить их поведение.

“Наши участники в США сотрудничали с искусственными агентами значительно меньше, чем с людьми, тогда как участники в Японии проявляли эквивалентные уровни сотрудничества с обоими типами соперников”, – говорится в статье.

Karpus, J., Shirai, R., Verba, J.T. et al.

Вина как ключевой фактор культурных различий

Исследователи предлагают, что различия в переживаемой вине являются основным фактором наблюдаемых культурных различий в том, как люди относятся к искусственным агентам.

Исследование показало, что люди на Западе, в частности в США, склонны чувствовать раскаяние, когда они эксплуатируют другого человека, но не когда они эксплуатируют машину. В Японии, напротив, люди, кажется, испытывают вину одинаково, будь то человек или искусственный агент.

Доктор Карпус объясняет, что в западном мышлении отрезание робота на дороге не ранит его чувства, подчеркивая перспективу, которая может способствовать большей готовности эксплуатировать машины.

Исследование включало исследовательский компонент, в котором участники сообщали о своих эмоциональных реакциях после того, как были раскрыты результаты игры. Эти данные предоставили важные сведения о психологических механизмах, лежащих в основе поведенческих различий.

Эмоциональные реакции раскрывают более глубокие культурные закономерности

Когда участники эксплуатировали кооперативный ИИ, японские участники сообщали о значительных отрицательных эмоциях (вине, гневе, разочаровании) и менее положительных эмоциях (счастье, победа, облегчение) по сравнению с их американскими коллегами.

Исследование показало, что дезертиры, которые эксплуатировали своего ИИ-соперника в Японии, сообщали о значительных чувствах вины по сравнению с дезертирами в США. Эта более сильная эмоциональная реакция может объяснить большую неохоту японских участников эксплуатировать искусственных агентов.

Напротив, американцы чувствовали более отрицательные эмоции, когда эксплуатировали людей, чем ИИ, различие, не наблюдаемое среди японских участников. Для людей в Японии эмоциональная реакция была одинаковой, независимо от того, эксплуатировали они человека или искусственного агента.

Исследование отмечает, что японские участники чувствовали одинаково о эксплуатации как людей, так и ИИ по всем опрошенным эмоциям, что предполагает фундаментально другое моральное восприятие искусственных агентов по сравнению с западными отношениями.

Анимизм и восприятие роботов

Культурный и исторический фон Японии может сыграть значительную роль в этих выводах, предлагая потенциальные объяснения наблюдаемых различий в поведении по отношению к искусственным агентам и воплощенному ИИ.

Статья отмечает, что историческая склонность Японии к анимизму и вере в то, что неодушевленные объекты могут обладать душой в буддизме, привела к предположению, что японцы более принимающие и заботливые по отношению к роботам, чем люди в других культурах.

Этот культурный контекст может создать фундаментально другую отправную точку для восприятия искусственных агентов. В Японии может быть меньше острого различия между людьми и нечеловеческими сущностями, способными к взаимодействию.

Исследование показывает, что люди в Японии более склонны, чем в США, верить, что роботы могут испытывать эмоции и более готовы принять роботов как объекты человеческой моральной оценки.

Исследования, упомянутые в статье, предполагают большую тенденцию в Японии воспринимать искусственных агентов как подобных людям, с роботами и людьми, часто изображаемыми как партнеры, а не в иерархических отношениях. Эта перспектива может объяснить, почему японские участники эмоционально относились к искусственным агентам и людям с одинаковой заботой.

Последствия для принятия автономных технологий

Эти культурные отношения могут напрямую повлиять на то, насколько быстро автономные технологии будут приняты в разных регионах, с потенциально далеко идущими экономическими и социальными последствиями.

Доктор Карпус предполагает, что если люди в Японии относятся к роботам с тем же уважением, что и к людям, полностью автономные такси могут стать обычным явлением в Токио быстрее, чем в западных городах, таких как Берлин, Лондон или Нью-Йорк.

Готовность эксплуатировать автономные транспортные средства в некоторых культурах может создать практические проблемы для их безупречной интеграции в общество. Если водители более склонны обгонять самоходные машины, забирать их полосу или иным образом эксплуатировать их запрограммированную осторожность, это может препятствовать эффективности и безопасности этих систем.

Исследователи предполагают, что эти культурные различия могут существенно повлиять на сроки широкого внедрения технологий, таких как доставочные дроны, автономный общественный транспорт и самоходные личные транспортные средства.

Интересно, что исследование показало мало различий в том, как японские и американские участники сотрудничали с другими людьми, что соответствует предыдущим исследованиям в области поведенческой экономики.

Исследование показало ограниченные различия в готовности японских и американских участников сотрудничать с другими людьми. Этот вывод подчеркивает, что расхождение возникает конкретно в контексте взаимодействия между человеком и ИИ, а не отражает более широкие культурные различия в кооперативном поведении.

Эта последовательность в сотрудничестве между людьми обеспечивает важную базу для сравнения культурных различий в взаимодействии между человеком и ИИ, что укрепляет выводы исследования о уникальности наблюдаемого шаблона.

Более широкие последствия для разработки ИИ

Результаты исследования имеют значительные последствия для разработки и развертывания систем ИИ, предназначенных для взаимодействия с людьми в различных культурных контекстах.

Исследование подчеркивает критическую необходимость учитывать культурные факторы при проектировании и реализации систем ИИ, взаимодействующих с людьми. То, как люди воспринимают и взаимодействуют с ИИ, не является универсальным и может существенно варьироваться в разных культурах.

Игнорирование этих культурных нюансов может привести к непредвиденным последствиям, более медленным темпам внедрения и потенциалу неправильного использования или эксплуатации технологий ИИ в определенных регионах. Это подчеркивает важность межкультурных исследований в понимании взаимодействия между человеком и ИИ и обеспечении ответственной разработки и развертывания ИИ во всем мире.

Исследователи предлагают, что по мере того, как ИИ становится более интегрированным в повседневную жизнь, понимание этих культурных различий станет все более важным для успешной реализации технологий, требующих сотрудничества между людьми и искусственными агентами.

Ограничения и направления будущих исследований

Исследователи признают определенные ограничения в своей работе, которые указывают на направления для будущего исследования.

Исследование в основном было сосредоточено на двух странах – Японии и США – что, хотя и дает ценные сведения, может не охватить весь спектр культурной вариации в взаимодействии между человеком и ИИ во всем мире. Необходимо дальнейшее исследование в более широком диапазоне культур, чтобы обобщить эти выводы.

Кроме того, хотя эксперименты по теории игр обеспечивают контролируемые сценарии, идеальные для сравнительных исследований, они могут не полностью отражать сложности реальных взаимодействий между человеком и ИИ. Исследователи предлагают, что проверка этих выводов в полевых исследованиях с реальными автономными технологиями будет важным следующим шагом.

Объяснение, основанное на вине и культурных убеждениях о роботах, хотя и подтверждено данными, требует дальнейшего эмпирического исследования для установления причинно-следственной связи. Исследователи призывают к более целевым исследованиям, изучающим конкретные психологические механизмы, лежащие в основе этих культурных различий.

“Наши текущие выводы смягчают обобщение этих результатов и показывают, что эксплуатация алгоритмов не является межкультурным явлением”, – заключают исследователи.

Алекс Макфарленд - журналист и писатель в области искусственного интеллекта, исследующий последние разработки в этой области. Он сотрудничал с многочисленными стартапами и изданиями в области искусственного интеллекта во всем мире.