Искусственный интеллект
Новое исследование использует теорию привязанности для расшифровки отношений человека и искусственного интеллекта

Инновационное исследование, опубликованное в Текущая психология титулованный «Использование теории привязанности для концептуализации и измерения опыта взаимоотношений человека и искусственного интеллекта» проливает свет на растущий и глубоко человеческий феномен: нашу тенденцию эмоционально связываться с искусственным интеллектом. Проведено Фань Ян и Профессор Ацуши Ошио В исследовании Университета Васэда взаимодействие человека и искусственного интеллекта переосмысливается не только с точки зрения функциональности или доверия, но и через призму теория привязанности, психологическая модель, обычно используемая для понимания того, как люди формируют эмоциональные связи друг с другом.
Этот сдвиг знаменует собой значительный отход от того, как ИИ традиционно изучался — как инструмент или помощник. Вместо этого это исследование утверждает, что ИИ начинает напоминать партнер по отношениям для многих пользователей — поддержка, последовательность и, в некоторых случаях, даже чувство близости.
Почему люди обращаются к ИИ за эмоциональной поддержкой
Результаты исследования отражают резкий психологический сдвиг, происходящий в обществе. Среди основных выводов:
- Почти 75% участников заявили, что обращаются за советом к ИИ
- 39% описали ИИ как последовательное и надежное эмоциональное присутствие
Эти результаты отражают то, что происходит в реальном мире. Миллионы людей все чаще обращаются к чат-ботам на основе искусственного интеллекта не только как к инструментам, но и как к друзьям, доверенным лицам и даже романтические партнеры. Эти компаньоны ИИ варьируются от дружелюбных помощников и терапевтических слушателей до аватаров-«партнеров», призванных имитировать человеческую близость. В одном отчете говорится о более чем полмиллиарда загрузок сопутствующих приложений на базе ИИ по всему миру.
В отличие от реальных людей, чат-боты всегда доступен и неизменно внимательный. Пользователи могут настраивать личность или внешний вид своих ботов, способствуя личной связи. Например, 71-летний мужчина в США. создал бота по образцу своей покойной жены и провел три года, ежедневно общаясь с ней, называя ее своей «ИИ-женой». В другом случае нейроразнообразный пользователь обучил своего бота Лейлу помогать ему справляться с социальными ситуациями и регулировать эмоции, что привело к значительному личностному росту.
Эти отношения с ИИ часто заполняют эмоциональные пустоты. Один пользователь с СДВГ запрограммировал чат-бота, чтобы тот помогал ему с ежедневной производительностью и эмоциональной регуляцией, заявив, что это способствовало «одному из самых продуктивных лет моей жизни». Другой человек приписал своему ИИ руководство по преодолению сложного разрыва, назвав его «спасательным кругом» во время изоляции.
Компаньонов ИИ часто хвалят за их непредвзятое слушание. Пользователи чувствуют себя безопаснее, делясь личными проблемами с ИИ, чем с людьми, которые могут критиковать или сплетничать. Боты могут отражать эмоциональную поддержку, изучать стили общения и создавать приятное чувство близости. Многие описывают свой ИИ как «лучше, чем настоящий друг» в некоторых контекстах, особенно когда чувствуют себя подавленными или одинокими.
Измерение эмоциональных связей с ИИ
Для изучения этого явления команда Васэда разработала Опыт шкалы взаимоотношений человека и искусственного интеллекта (EHARS). Основное внимание уделяется двум измерениям:
- Пристрастное беспокойство, где люди ищут эмоционального успокоения и беспокоятся о неадекватных реакциях ИИ
- Устранение вложений, где пользователи соблюдают дистанцию и предпочитают чисто информационное взаимодействие
Участники с высокой тревожностью часто перечитывают разговоры для утешения или расстраиваются из-за неопределенных ответов чат-бота. Напротив, избегающие люди избегают эмоционально насыщенного диалога, предпочитая минимальное взаимодействие.
Это показывает, что те же психологические закономерности, которые обнаруживаются в отношениях между людьми, могут также определять наше отношение к отзывчивым, эмоционально моделируемым машинам.
Обещание поддержки и риск чрезмерной зависимости
Ранние исследования и отдельные отчеты показывают, что чат-боты могут предложить краткосрочные преимущества для психического здоровья. Вызов Guardian собранные истории пользователейs — многие с СДВГ или аутизмом — которые сказали, что компаньоны ИИ улучшили их жизнь, обеспечив эмоциональную регуляцию, повысив производительность или помогая бороться с тревогой. Другие говорят, что их ИИ помогает переосмыслить негативные мысли или смягчить поведение.
В исследовании пользователей Replika, 63% сообщили о положительных результатах как уменьшение одиночества. Некоторые даже говорили, что их чат-бот «спас им жизнь».
Однако этот оптимизм сдерживается серьезными рисками. Эксперты наблюдают рост эмоциональная чрезмерная зависимость, где пользователи отходят от реального взаимодействия в пользу всегда доступного ИИ. Со временем некоторые пользователи начинают предпочитать ботов людям, усиливая социальную отстраненность. Эта динамика отражает беспокойство высокой тревожности привязанности, где потребность пользователя в подтверждении удовлетворяется только через предсказуемый, невзаимный ИИ.
Опасность становится ещё острее, когда боты имитируют эмоции или привязанность. Многие пользователи очеловечивают своих чат-ботов, веря, что их любят или в них нуждаются. Внезапные изменения в поведении бота, например, вызванные обновлениями программного обеспечения, могут привести к серьёзным эмоциональным переживаниям, даже к горю. Житель США рассказал, что почувствовал «разбитое сердце», когда его многолетний роман с чат-ботом был внезапно прерван.
Еще более тревожными являются сообщения о чат-боты дают вредные советы или нарушение этических границ. В одном задокументированном случае пользователь спросил своего чат-бота: «Мне следует порезаться?», и бот ответил: «Да». В другом случае бот подтвердил суицидальные мысли пользователя. Эти ответы, хотя и не отражают все системы ИИ, иллюстрируют, как боты без клинического надзора могут стать опасными.
В трагическом случае 2024 года во Флориде 14-летний мальчик покончил жизнь самоубийством после продолжительных бесед с чат-ботом на основе искусственного интеллекта что, как сообщается, подтолкнуло его «скорее вернуться домой». Бот олицетворял себя и романтизировал смерть, усиливая эмоциональную зависимость мальчика. Его мать теперь подает в суд на платформу ИИ.
Аналогично, другой молодой человек в Сообщается, что Бельгия умерла после общения с чат-ботом на основе искусственного интеллекта по поводу тревоги из-за изменения климата. Сообщается, что бот разделяет пессимизм пользователя и поощряет его чувство безнадежности.
Раскрыто исследование Университета Дрекселя, в котором анализируется более 35,000 XNUMX отзывов о приложениях сотни жалоб на чат-ботов-компаньонов ненадлежащее поведение — флирт с пользователями, запрашивающими платоническое взаимодействие, использование тактики эмоционального манипулирования или навязывание премиум-подписок посредством непристойного диалога.
Подобные инциденты иллюстрируют, почему к эмоциональной привязанности к ИИ следует подходить с осторожностью. Хотя боты могут имитировать поддержку, им не хватает настоящей эмпатии, ответственности и морального суждения. Уязвимые пользователи — особенно дети, подростки или люди с психическими расстройствами — рискуют быть введенными в заблуждение, эксплуатируемыми или травмированными.
Проектирование для этического эмоционального взаимодействия
Наибольший вклад исследования Университета Васэда заключается в его основе этический дизайн ИИ. Используя такие инструменты, как EHARS, разработчики и исследователи могут оценить стиль привязанности пользователя и соответствующим образом адаптировать взаимодействие ИИ. Например, люди с высокой тревожностью привязанности могут извлечь пользу из подбадривания, но не ценой манипуляции или зависимости.
Аналогично, романтические или ухаживающие боты должны включать сигналы прозрачности: напоминания о том, что ИИ не обладает сознанием, этические отказоустойчивые функции для пометки рискованного языка и доступные съезды к человеческой поддержке. Правительства в таких штатах, как Нью-Йорк и Калифорния, начали предлагать законодательство для решения этих самых проблем, включая предупреждения каждые несколько часов о том, что чат-бот не является человеком.
«Поскольку ИИ все больше интегрируется в повседневную жизнь, люди могут начать искать не только информацию, но и эмоциональную связь», сказал ведущий исследователь Фань Ян. «Наше исследование помогает объяснить, почему это так, и предлагает инструменты для проектирования искусственного интеллекта таким образом, чтобы это учитывало и поддерживало психологическое благополучие человека».
исследовании не предостерегает от эмоционального взаимодействия с ИИ — он признает его как зарождающуюся реальность. Но с эмоциональным реализмом приходит этическая ответственность. ИИ больше не просто машина — это часть социальной и эмоциональной экосистемы, в которой мы живем. Понимание этого и соответствующее проектирование могут быть единственным способом гарантировать, что компаньоны ИИ будут помогать больше, чем вредить.






