الأخلاقيات
الاعتبارات الأخلاقية عند تطوير الذكاء الاصطناعي لتحليل المشاعر

الذكاء الاصطناعي لتنظيم المشاعر هو أحد أحدث التطورات التكنولوجية في مجال التعلم الآلي. على الرغم من أنه يظهر إمكانيات كبيرة، إلا أن القضايا الأخلاقية على وشك التأثير على معدل تبنيه ومدى استمراريته. هل يمكن لمطوري الذكاء الاصطناعي التغلب على هذه القضايا؟
ما هو الذكاء الاصطناعي لتحليل المشاعر؟
الذكاء الاصطناعي لتحليل المشاعر هو نوع من أنواع نماذج التعلم الآلي. غالباً ما يعتمد على تكنولوجيا الرؤية الحاسوبية التي تقوم بالتقاط وتحليل التعبيرات الوجهية لفك شفرة المزاج في الصور والفيديوهات. ومع ذلك، يمكنه أيضًا العمل على مقاطع صوتية لتحديد نبرة الصوت أو النص المكتوب لتقييم مشاعر اللغة.
تمثل هذه الخوارزمية تقدمًا مثيرًا للاهتمام في مجال الذكاء الاصطناعي لأن النماذج حتى الآن لم تكن قادرة على فهم المشاعر الإنسانية. في حين أن نماذج اللغة الكبيرة مثل ChatGPT يمكن أن ت模ulkan المشاعر والشخوص بشكل مقنع، إلا أنها لا تستطيع إلا تجميع الكلمات معًا بشكل منطقي – لا يمكنها الشعور بأي شيء ولا تظهر الذكاء العاطفي.على الرغم من أن نموذج تحليل المشاعر غير قادر على الشعور، إلا أنه يمكنه اكتشافها وتسجيلها. هذا التطور مهم لأنها تشير إلى أن الذكاء الاصطناعي قد يكون قريبًا من الفهم الحقيقي وعرض المشاعر مثل السعادة والحزن أو الغضب. القفزات التكنولوجية مثل هذه تشير إلى تقدم متسارع.
حالات استخدام الذكاء الاصطناعي لتحليل المشاعر
الشركات والمعلمون والاستشاريون ومهنيي الرعاية الصحية النفسية هي بعض المجموعات التي يمكنها استخدام الذكاء الاصطناعي لتحليل المشاعر.
تقييم المخاطر في المكتب
يمكن لفريق الموارد البشرية استخدام الخوارزميات لإجراء تحليل المشاعر على المراسلات البريدية أو المحادثات داخل التطبيقات بين أعضاء الفريق. أو يمكنهم دمج خوارزميتهم في نظام المراقبة أو الرؤية الحاسوبية. يمكن للمستخدمين تتبع المزاج لحساب معايير مثل مخاطر الإقلاع ومعدل الإرهاق ورضا الموظفين.
مساعدة وكلاء خدمة العملاء
يمكن للبائعين استخدام وكلاء خدمة العملاء الذكية داخل الشركة لمستخدمي النهاية أو المساعدين الافتراضيين لحل الحالات عالية التوتر. منذ أن يمكن لنموذجهم تحليل المشاعر، يمكنه اقتراح تقنيات التهدئة أو تغيير نبرة الصوت عندما يدرك أن المستهلك ي trở غاضبًا. يمكن أن تحسن مثل هذه الإجراءات رضا العملاء ومدى الاحتفاظ بهم.
مساعدة الطلاب في الفصل الدراسي
يمكن للمعلمين استخدام هذا الذكاء الاصطناعي لمنع المتعلمين عن بعد من التأخر. قام أحد الشركات الناشئة بالفعل باستخدام أداته لقياس نقاط العضلات على وجوه الطلاب أثناء تسجيل سرعتهم ودرجاتهم. هذا الأسلوب يحدد مزاجهم، ودوافعهم، وقوتهم وضعفهم. يزعم مؤسس الشركات الناشئة أنهم ينجحون بنسبة 10٪ أعلى في الاختبارات عند استخدام البرنامج.
إجراء بحوث السوق الداخلية
يمكن للشركات إجراء بحوث السوق الداخلية باستخدام نموذج تحليل المشاعر. يمكنه مساعدتهم على فهم كيف يتفاعل جمهورهم المستهدف مع منتجهم أو خدمتهم أو مواد التسويق، مما يوفر لهم رؤى قيمة مدفوعة بالبيانات. وبالتالي، قد يسرعون من وقت التسويق ويزيدون من إيراداتهم.
مشكلة استخدام الذكاء الاصطناعي لتحليل المشاعر
تشير الأبحاث إلى أن الدقة تعتمد بشكل كبير على المعلومات المستخدمة في التدريب. أثبتت مجموعة بحثية – التي حاولت فك شفرة المشاعر من الصور – هذا المفهوم بشكل تجريبي عندما حقق نموذجها دقة 92.05٪ على مجموعة بيانات التعبيرات الوجهية الأنثوية اليابانية و 98.13٪ على مجموعة بيانات كوهن-كانادي الممتدة.
على الرغم من أن الفرق بين 92٪ و 98٪ قد يبدو غير مهم، إلا أنه يهم – يمكن أن يكون لهذا الاختلاف الطفيف عواقب كبيرة. لمزيد من المرجعية، ثبت أن معدل تلوث البيانات منخفض مثل 0.001٪ كان فعالًا في إنشاء أبواب خلفية للنموذج أو إحداث سوء تصنيف متعمد. حتى جزء من النسبة المئوية هو مهم.
علاوة على ذلك، على الرغم من أن الدراسات تبدو واعدة – معدلات الدقة أعلى من 90٪ تظهر إمكانيات – يتم إجراء هذه الدراسات في بيئات خاضعة للرقابة. في العالم الحقيقي، الصور غير واضحة، والتعبيرات الوجهية المزيفة، والزوايا السيئة والمشاعر الدقيقة أكثر شيوعًا. بمعنى آخر، قد لا يكون الذكاء الاصطناعي قادرًا على الأداء بشكل متسق.
الحالة الحالية للذكاء الاصطناعي لتحليل المشاعر
التحليل العاطفي الخوارزمي هو عملية استخدام خوارزمية لتحديد ما إذا كانت نبرة النص إيجابية أو محايدة أو سلبية. هذه التكنولوجيا هي أساسًا أساس نموذج الكشف عن المشاعر الحديث. وقد ساهمت تكنولوجيا مماثلة مثل برامج التعرف على الوجه في التقدم.
يمكن للخوارزميات الحديثة تحديد المشاعر البسيطة مثل السعادة والحزن والغضب والخوف والدهشة بدقة مختلفة. هذه التعبيرات الوجهية هي فطرية ومتعاقبة – بمعنى أنها طبيعية ومتفق عليها عالميًا – لذلك يعتبر تدريب الذكاء الاصطناعي على تحديدها أمرًا نسبيًا.
علاوة على ذلك، غالبًا ما تكون التعبيرات الوجهية الأساسية مبالغًا فيها. الناس ي皺ون جباههم عندما يكونون غاضبين، ويحزنون عندما يكونون حزينين، ويتسمّرون عندما يكونون سعداء، ويتسعون عيونهم عندما يكونون مذهولين. هذه المظاهر البسيطة والدراماتيكية سهلة التمييز. المشاعر الأكثر تعقيدًا أكثر صعوبة في تحديدها لأنها إما خفية أو تجمع بين المظاهر الأساسية.
منذ أن يبقى هذا الجزء من الذكاء الاصطناعي إلى حد كبير في البحث والتطوير، لم يتطور بعد ليشمل المشاعر المعقدة مثل الشوق والخزي والحزن والغيرة والارتياح أو الارتباك. على الرغم من أنه من المحتمل أن يغطي المزيد في النهاية، لا يوجد ضمان أنه سيكون قادرًا على تفسيرها جميعًا.
في الواقع، قد لا تكون الخوارزميات قادرة على منافسة البشر. لمزيد من المرجعية، بينما يبلغ حجم بيانات GPT-4 من OpenAI حوالي 1 بيتابايت، يحتوي كل ملليمتر مكعب من الدماغ البشري على حوالي 1.4 بيتابايت من البيانات. لا يستطيع علماء الأعصاب فهم كيف يدرك الدماغ المشاعر على الرغم من عقود من البحث، لذلك قد يكون بناء الذكاء الاصطناعي الدقيق أمرًا مستحيلًا.
على الرغم من أن استخدام هذه التكنولوجيا لتحليل المشاعر له سابقة، إلا أن هذا المجال لا يزال في مرحلته الأولى تقنيًا. هناك الكثير من الأبحاث حول هذا المفهوم، ولكن هناك القليل من الأمثلة على التطبيق الواسع النطاق. تشير بعض الإشارات إلى أن تبني متأخر قد ينتج عن مخاوف بشأن الدقة غير المستمرة والقضايا الأخلاقية.
الاعتبارات الأخلاقية لمطوري الذكاء الاصطناعي
وفقًا لمسح واحد، ي同意 67٪ من المستجيبين على أن الذكاء الاصطناعي يجب أن يكون أكثر تنظيمًا. لتخفيف مخاوف الناس، يجب على المطورين تحسين الدقة، وضمان سلوك النماذج كما هو متوقع، وتحسين النتائج. هذه الحلول ممكنة إذا أولوا الأولوية للقضايا الأخلاقية أثناء التطوير.
1. جمع البيانات والاستخدام بالموافقة
الموافقة هي كل شيء في عصر يزداد فيه تنظيم الذكاء الاصطناعي. ماذا يحدث إذا اكتشف الموظفون أن تعبيراتهم الوجهية يتم تسجيلها دون معرفتهم؟ هل يحتاج الآباء إلى التوقيع على تحليل المشاعر القائم على التعليم أو يمكن للطلاب أن يقرروا لأنفسهم؟
يجب على المطورين الكشف بشكل صريح عن ما هي المعلومات التي سوف يجمعها النموذج، وعندما سوف يكون في العمل، وماذا سوف تستخدم التحليلات من أجله، ومن يمكنه الوصول إلى تلك التفاصيل. بالإضافة إلى ذلك، يجب أن يتضمنوا ميزات إلغاء الاشتراك حتى يتمكن الأفراد من تخصيص الأذونات.
2. مخرجات تحليل المشاعر المجهولة
تتمثل مشكلة تعمية البيانات في كونها مشكلة أمنية وخصوصية في الوقت نفسه. يجب على المطورين تعمية معلومات المشاعر التي يجمعونها لحماية الأفراد المعنيين. على الأقل، يجب أن يفكروا جديًا في استخدام التشفير أثناء الاستخدام.
3. اتخاذ القرارات بوجود إنسان في الحلقة
السبب الوحيد لاستخدام الذكاء الاصطناعي لتحديد حالة شخص ما العاطفية هو لتعليم اتخاذ القرار. سواء تم استخدامه في مجال الصحة النفسية أو في بيئة تجارية، سوف يؤثر على الناس. يجب على المطورين استخدام حماية بوجود إنسان في الحلقة لتقليل السلوك غير المتوقع.
4. ملاحظات مركزية البشر لخرج الذكاء الاصطناعي
حتى لو كان للخوارزمية دقة تقترب من 100٪، فإنها سوف تنتج إيجابيات كاذبة. بالنظر إلى أن النماذج لا تصل إلى 50٪ أو 70٪ – وهذا بدون لمس القضايا المتعلقة بالتحيز أو الهلوسة – يجب على المطورين التفكير في تنفيذ نظام ملاحظات.
يجب أن يتمكن الناس من مراجعة ما يقوله الذكاء الاصطناعي عن حالةهم العاطفية والاستئناف إذا اعتقدوا أنها كاذبة. على الرغم من أن مثل هذا النظام سوف يتطلب حماية وقواعد مساءلة، إلا أنه سوف يقلل من الآثار السلبية الناجمة عن مخرجات غير دقيقة.
عواقب تجاهل الأخلاقيات
يجب أن تكون الاعتبارات الأخلاقية أولوية للمهندسين ومطوري الذكاء الاصطناعي وأصحاب الأعمال لأنها تؤثر عليهم. مع وجود آراء عامة متزايدة الشك وتightening التنظيمات، يمكن أن تكون عواقب تجاهل الأخلاقيات كبيرة.












