인공지능
연구자들, “감정 지능” AI 개발에 更一步 다가가다

일본 고급과학기술연구소(일본 Advanced Institute of Science and Technology)의 연구자들은 생물학적 신호와 기계학습 방법을 통합하여 “감정 지능” AI를 개발했다. 감정 지능은 더 자연스러운 인간-기계 상호작용으로 이어질 수 있다고 연구자들은 말한다.
새로운 연구는 IEEE Transactions on Affective Computing 저널에 발표되었다.
감정 지능 달성
알렉사와 시리 같은 음성 및 언어 인식 기술은 끊임없이 발전하고 있으며, 감정 지능을 추가하면 다음 단계로 발전할 수 있다. 이는 이러한 시스템이 사용자의 감정 상태를 인식하고 언어를 이해하며 더 공감적인 응답을 생성할 수 있음을 의미한다.
“다중 모달 감정 분석”은 감정 감지에 대한 AI 대화 시스템의 표준을 구성하는 방법의 집합으로, 자동으로 사람의 음성, 얼굴 표정, 목소리 색상, 자세 등에서 심리적 상태를 분석할 수 있다. 이러한 방법은 인간 중심의 AI 시스템을 생성하는 데 기본적이며 감정 지능이 넘치는 AI를 개발하는 데 도움이 될 수 있다. 이러한 능력은 AI가 사용자의 감정을 이해한 후 적절한 응답을 생성하는 데 도움이 될 것이다.
관찰할 수 없는 신호 분석
현재의 추정 방법은 주로 관찰 가능한 정보에 초점을 맞추고 있으며, 이는 생리학적 신호와 같은 관찰할 수 없는 신호에 포함된 정보를 무시한다. 이러한 유형의 신호는 감정 추정에 도움이 될 수 있는 많은 유용한 데이터를 포함한다.
이 연구에서 다중 모달 감정 분석에 생리학적 신호가 처음으로 추가되었다. 이 연구를 수행한 연구팀에는 일본 고급과학기술연구소(JSAIT)의 부교수인 오카다 쇼고와 오사카 대학의 산업과학연구소의 교수인 코마타니 카즈노리가 포함되었다.
“인간은 감정을 숨기기에는 매우 능숙하다”라고 오카다 박사는 말한다. “사용자의 내부 감정 상태는 항상 대화의 내용에 정확하게 반영되지 않는다. 그러나 사람의 심박수와 같은 생리학적 신호를 의식적으로 제어하는 것은 어렵기 때문에 감정 상태를 추정하는 데 이러한 신호를 사용하는 것이 유용할 수 있다. 이는 인간을 넘어서는 감정 추정 능력을 가진 AI를 만들 수 있다.”
연구팀의 연구는 26명의 참가자로부터 얻은 2,468개의 대화 AI 교환을 분석했다. 이 데이터를 사용하여 연구팀은 사용자가 대화 중에 경험한 즐거움의 수준을 추정할 수 있었다.
그런 다음 사용자는 대화가 얼마나 즐겁거나 지루했는지 평가하도록 요청받았다. 연구팀은 “하즈미1911”라는 다중 모달 대화 데이터 세트를 사용했다. 이 데이터 세트는 음성 인식, 음색 센서, 자세 감지, 얼굴 표정 및 피부 전위를 결합한다.
“모든 별도의 정보源을 비교해 본 결과, 생물학적 신호 정보는 음성 및 얼굴 표정보다 더 효과적이었다”고 오카다 박사는 계속했다. “언어 정보와 생물학적 신호 정보를 결합하여 시스템과 대화하는 동안 자체 평가된 내부 상태를 추정했을 때, AI의 성능은 인간의 성능과 비교할 수 있었다.”
새로운 연구 결과는 인간의 생리학적 신호를 감지하는 것이 매우 감정 지능이 높은 AI 기반 대화 시스템으로 이어질 수 있음을 시사한다. 감정 지능이 높은 AI 시스템은 일상적인 감정 상태의 변화를 감지하여 정신 질환을 식별하고 모니터링하는 데 사용될 수 있다. 또 다른 가능한 사용 사례는 교육에서 학습자가 주제에 관심이 있거나 지루한지 식별하여 교육 전략을 변경하는 데 사용될 수 있다.












