부본 연구원들이 "감성 지능" AI 달성에 한 발 더 다가서다 - Unite.AI
Rescale 미팅 예약

인공 지능

연구원들은 "감성 지능적인" AI 달성에 더 가까워졌습니다.

업데이트 on

일본과학기술원(JAS)의 연구원들은 생물학적 신호를 기계 학습 방법과 통합하여 "감정 지능" AI를 구현했습니다. 감성 지능은 보다 자연스러운 인간-기계 상호 작용으로 이어질 수 있다고 연구원들은 말합니다. 

새로운 연구가 저널에 게재되었습니다. 감성 컴퓨팅에 대한 IEEE 트랜잭션.

감성 지능 달성

Alexa 및 Siri와 같은 음성 및 언어 인식 기술은 지속적으로 발전하고 있으며 감성 지능을 추가하면 다음 단계로 이동할 수 있습니다. 이것은 이러한 시스템이 사용자의 감정 상태를 인식하고 언어를 이해하고 더 공감적인 반응을 생성할 수 있음을 의미합니다. 

"멀티모달 감정 분석"은 감정 감지 기능이 있는 AI 대화 시스템의 황금 표준을 구성하는 방법 그룹으로, 사람의 말투, 얼굴 표정, 목소리 색상 및 자세에서 사람의 심리 상태를 자동으로 분석할 수 있습니다. 이는 인간 중심의 AI 시스템을 만드는 데 기본이 되며 "인간 능력을 뛰어넘는" 감성 지능 AI 개발로 이어질 수 있습니다. 이러한 기능은 AI가 적절한 응답을 형성하기 전에 사용자의 감정을 이해하는 데 도움이 됩니다. 

관찰할 수 없는 신호 분석

현재 추정 방법은 주로 관찰 가능한 정보에 초점을 맞추고 있으며 생리적 신호를 포함할 수 있는 관찰 불가능한 신호의 정보는 생략합니다. 이러한 유형의 신호에는 감정 추정을 개선할 수 있는 귀중한 데이터가 많이 있습니다. 

이 연구에서는 처음으로 다중 감정 분석에 생리적 신호를 추가했습니다. 이 연구를 수행한 연구팀에는 일본 과학 기술 종합 연구소(JSAIT)의 Shogo Okada 부교수와 오사카 대학 산업 과학 연구소의 Kazunori Komatani 교수가 포함되었습니다. 

"인간은 자신의 감정을 숨기는 데 매우 능숙합니다."라고 Dr. Okada는 말합니다. “사용자의 내적 감정 상태가 대화 내용에 항상 정확하게 반영되는 것은 아니지만 사람이 의식적으로 심박수와 같은 생체 신호를 제어하기 어렵기 때문에 이를 추정하는 데 유용할 수 있습니다. 감정 상태. 이것은 인간을 초월한 감정 추정 능력을 가진 AI를 만들 수 있습니다.” 

팀의 연구에는 2,468명의 참가자로부터 얻은 대화 AI와의 26개 교환 분석이 포함되었습니다. 이 데이터를 사용하여 팀은 대화 중에 사용자가 경험하는 즐거움의 수준을 추정할 수 있습니다. 

그런 다음 사용자에게 대화가 얼마나 즐거웠는지 또는 지루했는지 평가하도록 요청했습니다. "Hazumi1911"이라는 다중 모드 대화 데이터 세트가 팀에서 사용되었습니다. 이 데이터 세트는 음성 인식, 음성 색상 센서, 자세 감지 및 얼굴 표정을 생리적 반응 감지의 한 형태인 피부 잠재력과 결합합니다.

"각각의 정보 소스를 모두 비교한 결과 생체 신호 정보가 목소리와 얼굴 표정보다 더 효과적인 것으로 판명되었습니다."라고 Okada 박사는 계속 말했습니다. “언어 정보와 생체 신호 정보를 결합해 시스템과 대화하면서 자체 평가한 내부 상태를 추정하자 AI의 성능은 인간과 비슷해졌습니다.”

새로운 연구 결과는 인간의 생리적 신호 감지가 고도로 감성 지능적인 AI 기반 대화 시스템으로 이어질 수 있음을 시사합니다. 그런 다음 감성 지능 AI 시스템을 사용하여 매일 감정 상태의 변화를 감지하여 정신 질환을 식별하고 모니터링할 수 있습니다. 또 다른 가능한 사용 사례는 교육에서 학습자가 주제에 관심이 있는지 또는 지루한지 식별할 수 있으며, 이를 통해 교육 전략을 변경하는 데 사용할 수 있습니다. 

Alex McFarland는 인공 지능의 최신 개발을 탐구하는 AI 저널리스트이자 작가입니다. 그는 전 세계 수많은 AI 스타트업 및 출판물과 협력해 왔습니다.