اتصل بنا للحصول على مزيد من المعلومات

EQ يتراجع ، كيف يمكن لقادة الأعمال الاستفادة من الذكاء الاصطناعي لتغيير الاتجاهات

قاده التفكير

EQ يتراجع ، كيف يمكن لقادة الأعمال الاستفادة من الذكاء الاصطناعي لتغيير الاتجاهات

mm

EQ في العالم يتراجع ، لكن الذكاء الاصطناعي يمكنه المساعدة.

على مدار الخمسين عامًا الماضية ، انخفض الذكاء العاطفي على مستوى العالم. 50 سكينسلرت يشير مقال بيتر دوكريل إلى أن "تحليل حوالي 730,000 نتيجة أجراه مركز راجنار فريش للأبحاث الاقتصادية في النرويج يكشف أن تأثير فلين بلغ ذروته للأشخاص المولودين خلال منتصف السبعينيات وانخفض بشكل ملحوظ منذ ذلك الحين." بعبارة أخرى ، تأثر معدل الذكاء العاطفي ونسبة الذكاء لدينا سلبًا في عالمنا الحالي للتكنولوجيا - صعود وسائل التواصل الاجتماعي والحوسبة التي تعمل دائمًا وتجربة تتجاهل المشاعر.

الذكاء الاصطناعي لديه القدرة على مساعدة البشر ليس فقط على تحسين معدل ذكائهم ، ولكن أيضًا معدل ذكائهم
حسنًا. ومع ذلك ، غالبًا ما يتم استبعاد المكونات الحيوية للاتصال البشري عندما يتعلق الأمر بذلك
التكنولوجيا ، مما يؤدي إلى تجربة مستخدم محبطة ، أو فقدان رؤى قيمة ، أو سابق لأوانه أو
اتخاذ قرارات غير مدروسة وبالتالي انخفاض الوعي العاطفي.

"لدينا الكثير من الخلايا العصبية في أدمغتنا للتفاعلات الاجتماعية. لقد ولدنا ببعض هذه المهارات ، ثم نتعلم المزيد. من المنطقي استخدام التكنولوجيا للتواصل مع أدمغتنا الاجتماعية ، وليس فقط أدمغتنا التحليلية ". قال البروفيسور بجامعة ستانفورد ، إريك برينجولفسون. "تمامًا مثلما نفهم الكلام ويمكن للآلات التواصل في الكلام ، فإننا نفهم أيضًا ونتواصل مع الفكاهة وأنواع أخرى من المشاعر. والآلات التي يمكنها التحدث بهذه اللغة - لغة المشاعر - سيكون لها تفاعلات أفضل وأكثر فعالية معنا ".

مع الثورة الصناعية الرابعة في أعقابنا ، تتعلم تقنية الذكاء الاصطناعي الاكتشاف والتفسير
المؤشرات العاطفية البشرية اللفظية وغير اللفظية مثل النغمة وتعبيرات الوجه والجسم
لغة. تحسنت الخوارزميات بشكل كبير بسبب التقدم في اكتشاف المشاعر ، ومعالجة اللغات الطبيعية ، تحليل المشاعر، التعلم الآلي، و مزيج أكبر مع علم اللغة وعلم النفس.

إذا كان Voice AI هو الخطوة الأولى ، فماذا بعد؟

لقد شقت تقنية Voice AI وحدها طريقها بالفعل إلى أيدي مليارات المستخدمين النهائيين
ابتكارات مثل Alexa و Siri و Google Assistant. من المتوقع أن صناعة تكنولوجيا الصوت
تنمو لتصل إلى 55 مليار دولار أمريكي بحلول عام 2026. مع كل هذه التقنيات الموجودة في متناول أيدينا ، لماذا
هل ما زلنا نشعر بالإحباط عندما لا تسمع رسائلنا؟

الجواب أبسط مما نعتقد. التقنيات الحالية ، في جوهرها ، صماء. إنهم يفتقرون إلى القدرة على التعرف على المشاعر الكامنة وراء كلماتنا. بينما قد تُسمع أوامرنا ، فإن نبرتنا ليست كذلك.

قد يكون لدينا تقنيات صوت لا تصدق تتعرف وتفسر المعنى الكامن وراء ذلك
اختيار اللغة والكلمات ، لكننا أنشأنا أيضًا آلات تفتقد إلى جزء من
صورة. تشكل الكلمات 7٪ فقط من التواصل البشري. في حين أن نبرة الصوت هي
المؤشر السلبي الأول لما يفكر فيه شخص ما ويمثل ما يقرب من 40٪ منه
التواصل البشري. رقم أعلى من أن نتجاهله.

وصلت حدود جديدة من الفهم العاطفي في شكل تحليلات الدرجة اللونية. النغمة
سرعان ما أصبحت ضرورة معيارية للتحليلات الآلية ومستقبل الصوت
تواصل. الصوت في كل مكان والذكاء الاصطناعي للمحادثات ينمو بشكل كبير. نغمة مثل
صوت في كل مكان ومع ذلك ، فإن النغمة غير مستغلة إلى حد كبير. هناك حاجة إلى نبرة الصوت لجسر
الفجوة بين البشر والآلات. من خلال دمج الذكاء الاصطناعي النغمي مع أشكال أخرى من الذكاء الاصطناعي للمحادثة، مثل برامج النصوص ولغة الجسد، يتم إنشاء فهم عاطفي أكثر شمولاً. تعمل هذه التقنيات معًا على ربط جميع جوانب البيانات المعقدة وغير المنظمة بذكاء لرسم صورة أوضح للتواصل البشري.

الشركات التي تقود الطريق

يونيفور، وهي شركة تحادثية تعمل بالذكاء الاصطناعي، توفر منصة لخدمة العملاء لتحسين محادثات الشركات عبر مراكز الاتصال من خلال عملية المبيعات. تعمل تقنية Uniphore على تعزيز الذكاء الاصطناعي الصوتي ورؤية الكمبيوتر والعاطفة النغمية. واليوم، تبلغ قيمة الشركة 2.5 مليار دولار أمريكي مع تمويل يزيد عن 620 مليون دولار أمريكي وتتوسع بسرعة على المستوى الدولي. وأشار المؤسس المشارك، أوميش ساشديف، إلى أهمية ذكاء المحادثة، قائلاً: "إن فهم المحادثات والبيانات والأفكار المستمدة منها أمر ضروري لكل عمل تجاري." لا يتم فهم المحادثات إلا عندما يتم أخذ جميع العوامل في الاعتبار - اختيار الكلمات ولغة الجسد وتعبيرات الوجه ونبرة الصوت.

تستفيد شركات الذكاء الاصطناعي الصوتية الأخرى الأكثر استهدافًا طبيًا من الفروق الدقيقة في الصوت للمساعدة في تشخيص المرضى الذين يعانون من أمراض مختلفة. صحة السوند يحلل المؤشرات الحيوية الصوتية لتحديد المرضى المصابين بمرض باركنسون بشكل أسرع من أي وقت مضى ، مما يسمح بعلاج أسرع. في رفيق، يمكن أن يساعد تطبيق الهاتف في التعرف على مرضى الاكتئاب من خلال تحليل الأنماط الصوتية. تبني البيانات التي تم إنشاؤها مفهومًا شاملاً للحالة العقلية للمريض ، كما أن تنسيق التطبيق يجعل التكنولوجيا في متناول المستخدمين النهائيين.

في عالم المال ، بدء التشغيل مشاريع هيليوس لايف يترجم الفروق الدقيقة في أصوات المديرين التنفيذيين إلى رؤى قابلة للتنفيذ لتعزيز كيفية اتخاذ المستثمرين للقرارات. أثناء مكالمات الأرباح وغيرها من الأحداث الصوتية أو المرئية ، يوزع المسؤولون التنفيذيون قدرًا كبيرًا من المعلومات المهمة عبر الكلام. نبرة الصوت قناة تقوم بتسريب معلومات عاطفية ومن الصعب للغاية إخفاء ذلك. تجذب شركة هيليوس الانتباه بسرعة في الصناعة المالية نظرًا لتركيزها المتمايز وحقيقة أنها الشركة الوحيدة التي تولد تحليلات لونية للمديرين التنفيذيين (أكثر من 4 آلاف من الأسهم الأمريكية). تمثل Helios تلك المكونات النغمية الحاسمة اللازمة للفهم ، وقد أنشأت قناة جديدة تمامًا من الرؤى ضمن مساحة البيانات البديلة (143.31 مليار دولار بحلول عام 2030).

ضع في اعتبارك Tone Today للبقاء في طليعة تقدم الغد

من مراكز الاتصال إلى المبيعات إلى الطب إلى التمويل ، فإن حالات استخدام النغمة لا حصر لها و
أصبح السؤال: كيف ستشكل الرؤى اللونية الصناعات الجديدة وتغير الصناعات القائمة؟

نظرًا لأن الذكاء الاصطناعي يطور مستوى أعلى من الذكاء العاطفي عبر الرؤى اللونية ، فمن الضروري أن يأخذ القادة في الاعتبار
كيف ستلعب التكنولوجيا دورًا في شركاتهم وصناعاتهم بشكل عام.

شون هو الشريك المؤسس والرئيس التنفيذي في مشاريع هيليوس لايف، منصة تجلب الذكاء الاصطناعي إلى عالم المتداولين والباحثين في مجال الأسهم المالية.