Connect with us

EQ ๊ฐ€ ๊ฐ์†Œํ•˜๊ณ , ๋น„์ฆˆ๋‹ˆ์Šค ๋ฆฌ๋”๊ฐ€ AI ๋ฅผ ํ™œ์šฉํ•˜์—ฌ ์ƒํ™ฉ์„ ์—ญ์ „์‹œํ‚ค๋Š” ๋ฐฉ๋ฒ•

์‚ฌ์ƒ ๋ฆฌ๋”

EQ ๊ฐ€ ๊ฐ์†Œํ•˜๊ณ , ๋น„์ฆˆ๋‹ˆ์Šค ๋ฆฌ๋”๊ฐ€ AI ๋ฅผ ํ™œ์šฉํ•˜์—ฌ ์ƒํ™ฉ์„ ์—ญ์ „์‹œํ‚ค๋Š” ๋ฐฉ๋ฒ•

mm

세계의 EQ 가 감소하고 있지만, AI 는 도움을 줄 수 있습니다.

過去 50 년 동안 전 세계적으로 감정 지능이 감소하고 있습니다. 2018 년 ScienceAlert 의 Peter Dockrill 의 기사에서는 “노르웨이의 Ragnar Frisch Center for Economic Research 에서 수행한 약 73 만 개의 결과 분석에 따르면, 플린 효과는 1970 년대 중반에 태어난 사람들에게 최고조에 달했으며 이후 크게 감소했다” 고 밝혔습니다. 즉, 우리의 EQ 와 IQ 는 현재 기술이 발전한 세계에서 부정적인 영향을 받고 있습니다. 즉, 소셜 미디어의 부상, 항상 켜져 있는 컴퓨팅, 그리고 감정을 무시하는 경험입니다.

인공지능은 인간이 자신의 IQ 를 향상시키는 데 도움을 주는 것뿐만 아니라 EQ 를 향상시키는 데에도 도움을 줄 수 있습니다. 그러나 인간의 의사소통의 중요한 구성 요소는 기술과 관련하여 종종 제외되며, 이는 사용자에게 불편함을 줄 수 있고, 귀중한 통찰력을 잃을 수 있으며, 미숙하거나 정보가 부족한 의사결정을 내릴 수 있으며, 궁극적으로 감정 인식이 낮아질 수 있습니다.

“우리의 뇌에는 사회적 상호작용을 위한 많은 뉴런이 있습니다. 우리는 일부 기술을 태어날 때부터 가지고 있고, 나머지는 배우게 됩니다. 기술을 사용하여 우리의 사회적 뇌와 분석적 뇌를 연결하는 것이 합리적입니다.” 스탠퍼드 대학교의 Erik Brynjolfsson 교수는 말했습니다. “우리가 언어를 이해하고 기계가 언어로 의사소통할 수 있는 것처럼, 우리는 유머와 다른 종류의 감정을 이해하고 의사소통할 수 있습니다. 그리고 감정의 언어를 말할 수 있는 기계는 우리와 더 나은, 더 효과적인 상호작용을 할 것입니다.”

4 차 산업 혁명이 우리를 따라가고 있는 상황에서, AI 기술은 말투, 얼굴 표정, 몸 언어와 같은 인간의 감정 지표를 감지하고 해석하는 방법을 배우고 있습니다. 감정 감지, NLP, 감정 분석, 기계 학습, 언어학 및 심리학의 조합과 같은 알고리즘의 발전으로 인해 상당히 개선되었습니다.

음성 AI 가 첫 번째 단계였다면, 다음은 무엇일까요?

음성 AI 기술은 이미 Alexa, Siri, Google Assistant 와 같은 혁신을 통해 수십억 명의 최종 사용자의 손에 들려있습니다. 음성 기술 산업은 2026 년까지 550 억 달러에 달할 것으로 예상됩니다. 이러한 모든 기존 기술이 우리의 손가락 끝에 있는 상황에서, 왜 우리의 메시지가 들리지 않는 경우에 우리는 여전히 좌절하는 걸까요?

答案은 생각보다 간단합니다. 기존 기술은 본질적으로 음을 감지하지 못합니다. 즉, 우리의 말 뒤에 있는 감정을 인식하지 못합니다. 우리의 명령은 들릴 수 있지만, 우리의 음은 들리지 않습니다.

우리는 언어와 단어 선택의 의미를 인식하고 해석하는 놀라운 음성 기술을 가지고 있지만, 우리는 부분적으로 그림을 잃은 기계를 만들었습니다. 단어가 인간 의사소통의 7% 만을 차지하는 반면, 음성은 생각하는 것에 대한 수동적인 지표 중 첫 번째이며 거의 40% 의 인간 의사소통을 차지합니다. 이는 무시할 수 없는 수치입니다.

감정 이해의 새로운 전선이 음성 분석의 형태로 도착했습니다. 음은 빠르게 자동 분석의 표준 필요성이 되고 있으며, 음성 의사소통의 미래입니다. 음성은 모든 곳에 있으며, 대화형 AI 는 기하급수적으로 성장하고 있습니다. 음은 음성과 마찬가지로 모든 곳에 있지만, 아직까지는 대부분 활용되지 않고 있습니다. 음성은 인간과 기계 간의 간격을 메우기 위해 필요합니다. 음성 AI 를 다른 형태의 대화형 AI 와 결합함으로써, 더 포괄적인 감정 이해가 생성됩니다. 이러한 기술은 복잡하고 비정형화된 데이터의 모든 측면을 지능적으로 연결하여 인간 의사소통에 대한 더 분명한 그림을 그립니다.

선도하는 회사

Uniphore 는 대화형 AI 유니콘으로, 고객 서비스 플랫폼을 제공하여 콜 센터에서 판매 과정까지 기업의 대화를 개선합니다. Uniphore 의 기술은 음성 AI, 컴퓨터 비전, 음성 감정을 활용합니다. 현재, 이 회사는 25 억 달러의 가치를 가지고 있으며, 6 億 2 천만 달러의 자금을 확보하여 국제적으로 빠르게 확장하고 있습니다. 공동 창립자 인 Umesh Sachdev 는 대화형 지능의 중요성을 강조했습니다. “대화와 그로부터 파생된 데이터 및 통찰력을 이해하는 것은 모든 비즈니스에 필수적입니다.” 대화는 단어 선택, 몸 언어, 얼굴 표정, 음성과 같은 모든 요소를 고려할 때만 이해할 수 있습니다.

다른, 더 의학적으로 목표를 둔 음성 AI 회사들은 음성의 미묘한 차이를 이용하여 다양한 질병으로 고통받는 환자를 진단하는 데 도움을 주고 있습니다. Sonde Health 는 음성 생체 지표를 분석하여 이전에 कभ도 없던 속도로 파킨슨병 환자를 식별할 수 있습니다. 이는 더 빠른 치료를 가능하게 합니다. CompanionMX 에서는 음성 패턴을 분석하여 우울증 환자를 식별하는 데 도움을 주는 전화 애플리케이션을 제공합니다. 생성된 데이터는 환자의 정신 상태에 대한 잘 정리된 개념을 구축하며, 앱 형식은 기술을 최종 사용자에게 더 접근하기 쉽게 만듭니다.

금융 세계에서, 스타트업 Helios Life Enterprises 는 이사의 음성의 음을 행동할 수 있는 통찰력으로 번역하여 투자자들이 의사결정을 내리는 방식을 발전시키고 있습니다. 실적 발표 회의와 다른 오디오 또는 비디오 이벤트에서, 이사는 음성으로大量의 중요한 정보를 배포합니다. 음성은 감정 정보를 누출하는 채널이며, 이것을 숨기기 매우 어렵습니다. Helios 는 차별화된 초점과 미국 주식 (4K 이상)의 음성 분석을 생성하는 유일한 회사라는 사실로 인해 금융 산업에서 빠르게 주목을 받고 있습니다. Helios 는 이해되는 데 필요한 중요한 음성 구성 요소를 고려하며, 대체 데이터 공간 (2030 년까지 1,433 억 1 천만 달러) 내에서 완전히 새로운 통찰력 채널을 만들었습니다.

내일의 발전을 선도하기 위해 오늘 음을 고려하세요

콜 센터, 판매, 의학, 금융과 같은 분야에서 음의 사용 사례는 끝없이 다양하며, 질문은 음의 통찰력이 새로운 산업을 형성하고 기존 산업을 어떻게 변화시킬 것인가입니다.

인공지능이 음의 통찰력을 통해 더 높은 EQ 를 개발함에 따라, 리더들은 기술이 자신의 회사와 더广泛한 산업에서 어떤 역할을 할 것인지 고려하는 것이 중요합니다.

Sean์€ Helios Life Enterprises์˜ ๊ณต๋™ ์ฐฝ๋ฆฝ์ž ๋ฐ CEO๋กœ์„œ, ๊ธˆ์œต ์ž์‚ฐ ๊ฑฐ๋ž˜์ž์™€ ์—ฐ๊ตฌ์ž๋“ค์˜ ์„ธ๊ณ„์— ์ธ๊ณต์ง€๋Šฅ์„ ๊ฐ€์ ธ์˜ค๋Š” ํ”Œ๋žซํผ์ž…๋‹ˆ๋‹ค.