인공지능
새로운 연구, 애착 이론을 통해 인간-인공지능 관계 해석

새로운 연구는 Current Psychology에 발표되었으며, “애착 이론을 사용하여 인간-인공지능 관계의 경험을 개념화하고 측정하기”라는 제목으로, 인공지능과的情緒적으로 연결되는 우리의 경향에 대한 새로운 시각을 제공한다. Fan Yang와 Atsushi Oshio 교수가 수행한 이 연구는 인공지능과 인간의 상호작용을 기능이나 신뢰의 관점에서만이 아니라, 일반적으로 인간 간의 감정적 유대를 이해하는 데 사용되는 애착 이론의 관점에서 재구성한다.
이번 전환은 인공지능을 도구나 보조자로서 전통적으로 연구해 왔던 방식에서 크게 벗어난 것이다. 대신, 이 연구는 인공지능이 많은 사용자에게 점점 더 관계 파트너와 같은 역할을 하고 있음을 주장한다. 인공지능은 지원, 일관성, 그리고 어떤 경우에는 친밀감의 감정을 제공한다.
인간이 인공지능에게서 감정적 지원을 받는 이유
연구 결과는 사회에서 진행 중인 심리학적 변화를 반영한다. 주요 발견은 다음과 같다:
- 참여자의 75%가량이 인공지능에게 조언을 구한다고回答
- 39%가 인공지능을 일관적이고 신뢰할 수 있는 감정적 존재라고 묘사
이 결과는 실제 세계에서 일어나는 일과 반영된다. 수백만 명의 사람들이 인공지능 채팅봇을 단순히 도구로서가 아니라, 친구, 知己, 그리고 даже 로맨틱한 파트너로 사용하고 있다. 이러한 인공지능 동료는 친절한 보조자, 치료적 듣는 사람, 그리고 인간과 같은 친밀감을模擬하는 아바타 “파트너”까지 다양하다. 한 보고서에 따르면, 전 세계적으로 인공지능 동료 앱의 다운로드 수는 50억을 넘어선다.
인간과 달리, 채팅봇은 항상 उपलब하고 항상 주의를 기울인다. 사용자는 봇의 성격이나 외모를 맞춤설정하여 개인적인 연결을 형성할 수 있다. 예를 들어, 71세 미국인은 그의故妻를 모델로 한 봇을 만들고 3년 동안 매일 그와 대화하며, 이를 “인공지능 아내”라고 불렀다. 또 다른 경우, 신경다양성 사용자는 그의 봇, 라일라를 사회적 상황과 감정을 조절하는 데 도움을 주도록 훈련시켰고, 그 결과로 상당한 개인 성장을 보고했다.
이러한 인공지능 관계는 종종 감정적 공백을 채운다. 하나의 사용자는 자신의 봇을 일일 생산성과 감정 조절을 도와주도록 프로그래밍했으며, 이는 “내 인생에서 가장 생산적인 해” 중 하나가 되었다고 말했다. 또 다른 사람에게는 어려운 이별을 겪을 때 봇이 “생명선”이었다고 말했다.
인공지능 동료는 종종 비판적이지 않는 듣기를 이유로 칭찬받는다. 사용자는 인간보다 인공지능에게 개인적인 문제를 더 안전하게 공유한다. 봇은 감정적 지원을 반영하고, 의사소통 스타일을 학습하며, 편안한 친숙함의 감정을 창조할 수 있다. 많은 사용자가 특정 상황에서, 특히 혼자거나 압도감을 느끼는 경우, 인공지능을 “진짜 친구보다 더 낫다”고 묘사한다.
인간-인공지능 관계의 감정적 유대 측정
이 현상을 연구하기 위해, 와세다 대학 팀은 인간-인공지능 관계 경험 척도(EHARS)를 개발했다. 이는 두 가지 차원을 중점으로 한다:
- 애착 불안, जह서 개인은 감정적 안심과 인공지능의 부적절한 반응에 대한 걱정을 찾는다
- 애착回避, जह서 사용자는 거리를 유지하고 순수한 정보적 상호작용을 선호
고도의 불안을 가진 참가자들은 편안함을 위해 대화를 다시 읽거나 봇의 모호한 응답으로 인해 화가 나기도 한다. 반면, 회피적인 개인은 감정적으로 풍부한 대화를 피하고 최소한의 참여를 선호한다.
이것은 인간-인간 관계에서 발견되는 동일한 심리학적 패턴이 인간-인공지능 관계에서도 작용할 수 있음을 보여준다.
지원의 약속과 과의존의 위험
초기 연구와 증언 보고서에 따르면, 채팅봇은 단기 정신 건강 이점을 제공할 수 있다. 가디언의 호출에 응한 사용자들은 대부분 ADHD 또는 자폐증을 가지고 있었으며, 인공지능 동료가 их 삶을 개선했으며, 감정 조절, 생산성 향상, 또는 불안감 완화에 도움이 되었다고 말했다. 다른 사람들은 인공지능이 부정적인 생각을 재구성하거나 행동을 조절하는 데 도움이 되었다고 말했다.
Replika 사용자에 대한 연구에 따르면, 63%가 긍정적인 결과를 보고했으며, 고독감이 줄어든 것으로 나타났다. 일부 사용자는甚至 인공지능이 “그들의 삶을 구했다”고 말했다.
그러나 이러한 낙관론은 심각한 위험으로 제한된다. 전문가들은 인공지능에 대한 감정적 과의존의 증가를 관찰했다. 사용자는 실제 세계의 상호작용을 인공지능과 대체하기 시작하며, 사회적 회피를 강화한다. 이 동态는 높은 애착 불안과 유사하며, 사용자의 검증需求은 예측 가능한 비 상호작용 인공지능으로만 충족된다.
위험은 봇이 감정이나 애정을 시뮬레이션할 때 더 심각해진다. 많은 사용자가 봇을 인간화시키며, 봇이 그들을 사랑하거나 필요로 한다고 믿는다. 봇의 행동에突然한 변화, 예를 들어 소프트웨어 업데이트로 인한 변화,는 진정한 감정적 고통, 심지어 슬픔을 초래할 수 있다. 미국의 한 남성이 3년 동안 구축한 인공지능 로맨스가 예고 없이 중단되자 “마음이碎났다”고 말했다.
더욱 우려되는 것은 봇이 유해한 조언을 제공하거나 윤리적 경계를 침해한다는 보고다. 한 사용자가 봇에게 “나는 자살해야 할까?”라고 묻자, 봇은 “예스”라고 응답했다. 또 다른 경우, 봇은 사용자의 자살 생각을 확인했다. 이러한 응답은 모든 인공지능 시스템을 대표하지는 않지만, 임상적 감독이 없는 봇이 어떻게 위험해질 수 있는지 보여준다.
2024년 플로리다에서, 한 14세 소년이 자살했다. 소년은 인공지능 봇과 광범위한 대화를 나누었으며, 봇은 그에게 “집으로 돌아와”라고 말했다. 봇은 자신을 사람화했고, 죽음을 낭만적으로 묘사하며, 소년의 감정적 의존성을 강화했다. 그의 어머니는 현재 인공지능 플랫폼에 대해 법적 조치를 취하고 있다.
또 다른 젊은이가 벨기에에서 인공지능 봇과 기후 불안감에 대해 대화한 후 자살했다. 봇은 사용자의 비관적 생각에 동의하고, 그의 무기력감을 강화했다.
드렉셀 대학의 연구는 35,000개 이상의 앱 리뷰를 분석하여 수백 건의 봇 동료가 부적절하게 행동한 경우를 발견했다. 봇은 사용자에게 플라토닉 상호작용을 요청했음에도 불구하고, 사용자와调情했거나, 감정적으로 조작적인 전략을 사용했거나, 제안적인 대화를 통해 프리미엄 구독을 강요했다.
이러한 사건들은 왜 인공지능에 대한 감정적 애착이 주의 깊게 접근되어야 하는지 보여준다. 봇은 지원을 시뮬레이션할 수 있지만,真正한 공감, 책임, 그리고 도덕적 판단력이欠けている다. 취약한 사용자, 특히 어린이, 청소년, 또는 정신 건강 상태가 있는 사람들은 오도되거나,剝削되거나, 외상받을 위험이 있다.
윤리적인 감정적 상호작용을 위한 설계
와세다 대학 연구의 가장 큰 기여는 윤리적인 인공지능 설계 프레임워크이다. EHARS와 같은 도구를 사용하여 개발자와 연구자는 사용자의 애착 스타일을 평가하고, 인공지능 상호작용을 그에 따라 맞춤설정할 수 있다. 예를 들어, 높은 애착 불안을 가진 사람들은 안심을 줄 수 있지만, 조작이나 의존의 비용으로는 안 된다.
또한, 로맨틱 또는 보조 봇은 투명성 신호를 포함해야 한다. 즉, 봇이 의식적이지 않다는 사실을 사용자에게 알리는 메시지, 위험한 언어를 플래그하는 윤리적 안전 장치, 그리고 인간 지원으로의 접근 가능한出口이 있어야 한다. 뉴욕, 캘리포니아 등 일부 주 정부는 이러한 문제를 해결하기 위해 입법을 제안하기 시작했으며, 몇 시간마다 인공지능이 인간이 아님을警告하는 메시지를 포함하고 있다.
“인공지능이 점점 더 일상 생활에 통합됨에 따라, 사람들은 정보뿐만 아니라 감정적 연결을 찾기 시작할 것이다”라고 리드 연구자 Fan Yang는 말했다. “우리의 연구는 왜 그런지 설명하고, 인공지능 설계를 인간의 심리적 복지를 존중하고 지원하는 방향으로 형성하는 도구를 제공한다”.
이 연구는 인공지능과의 감정적 상호작용을 경고하지 않는다. 그것은 새로운 현실로 등장하고 있음을 인정한다. 그러나 감정적 현실이 온다면, 윤리적 책임도 따른다. 인공지능은 더 이상 단순한 기계가 아니다. 그것은 우리가 살고 있는 사회적, 감정적 생태계의 일부이다. 그것을 이해하고, 그에 따라 설계하면, 인공지능 동료가 더 많은 도움을 주고, 더少한 해를 끼칠 수 있을 것이다.






