Myslitelé
Pokles EQ, jak mohou lídři podniků využít AI k otočení trendu

EQ světa klesá, ale AI může pomoci.
Za posledních 50 let se emocionální inteligence celosvětově snížila. Článek z roku 2018 na ScienceAlert od Petera Dockrilla uvádí, “Analýza asi 730 000 výsledků Ragnar Frisch Center for Economic Research v Norsku ukazuje, že Flynnův efekt dosáhl svého maxima u lidí narozených v polovině 70. let a od té doby významně poklesl.” Jinými slovy, naše EQ a IQ byly negativně ovlivněny v našem současném světě technologií – vzestupem sociálních médií, neustálým používáním počítačů a zkušeností, která zanedbává emoce.
Umělá inteligence má potenciál pomoci lidem zlepšit nejen jejich IQ, ale také jejich EQ. Nicméně, vitální složky lidské komunikace jsou často vyloučeny, když jde o technologii, což vede k frustrujícímu uživatelskému zážitku, ztrátě cenných informací, předčasnému nebo neinformovanému rozhodování a nakonec k nižší emocionální povědomí.
“Máme mnoho neuronů v našem mozku pro sociální interakce. Jsme s nimi narozeni a pak se učíme více. Má smysl použít technologii k propojení s našimi sociálními mozky, ne jen s našimi analytickými mozky.” řekl profesor Erik Brynjolfsson ze Stanfordu. “Stejně jako můžeme rozumět řeči a stroje mohou komunikovat v řeči, také rozumíme a komunikujeme s humorem a jinými druhy emocí. A stroje, které mohou mluvit tímto jazykem — jazykem emocí — budou mít lepší, účinnější interakce s námi.”
S 4. průmyslovou revolucí v našem zádech, technologie AI se učí detekovat a interpretovat verbální a neverbální lidské emoční indikátory, jako je tón, mimika a řeč těla. Algoritmy se významně zlepšily díky pokrokům v detekci emocí, NLP, sentiment analysis, strojovém učení a větší kombinaci s lingvistikou a psychologií.
Pokud byla Voice AI prvním krokem, co je dál?
Technologie Voice AI sama o sobě již pronikla do miliard rukou koncových uživatelů prostřednictvím inovací jako Alexa, Siri a Google Assistant. Průmysl hlasové technologie se má rozrůst na ohromujících 55 miliard dolarů do roku 2026. S veškerou touto stávající technologií na našich prstech, proč jsme stále frustrovaní, když naše zprávy nejsou slyšet?
Odpověď je jednodušší, než si myslíme. Stávající technologie jsou v podstatě neslyšící. Chybí jim schopnost rozpoznat emoce za našimi slovy. Zatímco naše příkazy mohou být slyšet, náš tón není.
Můžeme mít úžasné hlasové technologie, které rozpoznávají a interpretují význam za jazykem a výběrem slov, ale také jsme vytvořili stroje, které postrádají část obrazu. Slova tvoří pouze 7 % lidské komunikace. Zatímco tón hlasu je číslo jedna pasivního indikátoru toho, co někdo myslí, a tvoří téměř 40 % lidské komunikace. Číslo, které nelze ignorovat.
Nová hranice emočního porozumění přišla v podobě tonální analytiky. Tón se rychle stává standardní nutností pro automatizovanou analýzu a budoucnost hlasové komunikace. Hlas je všude a konverzační AI roste exponenciálně. Tón, stejně jako hlas, je všude; nicméně, tón je z velké části nevyužitý. Tón hlasu je potřebný k mostu mezi lidmi a stroji. Integrací tonální AI s jinými formami konverzační AI, jako je software pro text a řeč těla, je generováno komplexnější emoční porozumění. Společně tyto technologie inteligentně propojují všechny aspekty složitých a nestrukturovaných dat, aby vytvořily jasnější obraz lidské komunikace.
Společnosti, které vedou cestu
Uniphore, konverzační AI jednorožec, poskytuje platformu pro zákaznický servis, aby zlepšil firemní konverzace napříč call centry až po prodejní proces. Technologie Uniphore využívá hlasovou AI, počítačové vidění a tonální emoce. Dnes je firma oceněna na 2,5 miliardy dolarů s více než 620 miliony dolarů ve financování a rychle se rozšiřuje mezinárodně. Spoluzakladatel, Umesh Sachdev, zdůraznil důležitost konverzační inteligence, “Porozumění konverzacím a datům a informacím odvozeným z nich je nezbytné pro každé podnikání.” Konverzace jsou chápány pouze tehdy, jsou-li zohledněny všechny faktory – výběr slov, řeč těla, mimika a tón hlasu.
Jiné, více medicínsky zaměřené společnosti pro hlasovou AI, využívají nuancí v hlase, aby pomohly diagnostikovat pacienty trpící různými nemocemi. Sonde Health analyzuje hlasové biomarkery, aby identifikoval pacienty s Parkinsonovou nemocí rychleji než kdykoli předtím, což umožňuje rychlejší léčbu. V CompanionMX může telefonní aplikace pomoci identifikovat pacienty s depresí analýzou hlasových vzorců. Data generovaná vytvářejí ucelenou koncepci duševního stavu pacienta a formát aplikace činí technologii více přístupnou koncovým uživatelům.
Ve světě financí startup Helios Life Enterprises překládá tonální nuance hlasu výkonných ředitelů do akčních informací, aby pokročil v rozhodování investorů. Během výnosových hovorů a dalších audio nebo video událostí výkonní ředitelé distribuují大量 importante informace prostřednictvím řeči. Tón hlasu je kanál, který prosakuje emocionální informace a je extrémně obtížné jej skrýt. Helios rychle přitahuje pozornost ve finančním průmyslu kvůli své odlišné orientaci a skutečnosti, že je to jediná společnost, která generuje tonální analytiky výkonných ředitelů (více než 4 000 amerických akcií). Helios zohledňuje ty kritické tonální složky nezbytné pro porozumění a vytvořila zcela nový kanál informací v oblasti alternativních dat (143,31 miliardy dolarů do roku 2030).
Vzít v úvahu tón dnes, aby zůstal před pokrokem zítřka
Od call center až po prodej, medicínu a finance, použití tónu je nekonečné a otázka se stala: jak budou tonální informace formovat nové odvětví a měnit stávající?
Jakmile se umělá inteligence vyvíjí s vyšším EQ prostřednictvím tonálních informací, je zásadní, aby lídři zvažovali, jak bude technologie hrát roli ve svých firmách a odvětvích obecně.












