伦理
开发情感识别人工智能的伦理考虑

情感调节的人工智能是机器学习领域最新的技术进步之一。虽然它显示出巨大的潜力,但伦理问题可能会影响其采用率和寿命。人工智能开发者能否克服这些问题?
什么是情感识别人工智能?
情感识别人工智能是一种机器学习模型。它通常依赖于计算机视觉技术来捕获和分析面部表情,以解读图像和视频中的情绪。然而,它也可以在音频片段中运作,以确定语调或书面文本以评估语言的情绪。
这种算法代表了人工智能领域的迷人进步,因为到目前为止,模型无法理解人类的情绪。虽然像ChatGPT这样的大型语言模型可以令人信服地模拟情绪和个性,但它们只能逻辑地将单词连接起来——它们无法感受到任何东西,也不表现出情绪智慧。虽然情感识别模型无法拥有情绪,但它仍然可以检测和分类它们。这一发展很重要,因为它表明人工智能可能很快就能真正理解和表现出幸福、悲伤或愤怒。这样的技术飞跃表明了加速的进步。
人工智能情感识别的用例
企业、教育者、顾问和心理健康护理专业人员是可以使用人工智能情感识别的一些群体。
评估办公室中的风险
人力资源团队可以使用算法对团队成员之间的电子邮件或应用程序聊天进行情绪分析。或者,他们可以将算法集成到他们的监视或计算机视觉系统中。用户可以跟踪情绪以计算指标,如离职风险、倦怠率和员工满意度。
协助客户服务代理
零售商可以使用内部人工智能客户服务代理或虚拟助手来解决高压力情况。由于他们的模型可以识别情绪,因此可以建议缓解技巧或在意识到消费者正在变得愤怒时改变其语气。这样的对策可能会提高客户满意度和留存率。
帮助学生在课堂上
教育者可以使用这种人工智能来防止远程学习者落后。一个初创公司已经使用其工具来衡量学生面部的肌肉点,同时记录他们的速度和成绩。这种方法可以确定他们的情绪、动力、优势和劣势。该初创公司的创始人声称他们使用软件时的测试成绩提高了10%。
进行内部市场研究
企业可以使用情感识别模型进行内部市场研究。它可以帮助他们了解目标受众如何对其产品、服务或营销材料做出反应,从而提供有价值的数据驱动的见解。因此,他们可能会加快上市时间并增加收入。
使用人工智能检测情绪的问题
研究表明,准确性在很大程度上取决于训练信息。一个研究小组——试图从图像中解读情绪——在他们的模型在日本女性面部表情数据集上实现了92.05%的准确率,在扩展的Cohn-Kanade数据集上实现了98.13%的准确率。
虽然92%和98%之间的差异似乎微不足道,但它很重要——这种微小的差异可能会产生重大影响。为了参考,一份数据污染率低至0.001%,已经被证明可以有效地建立模型后门或故意造成误分类。即使是百分之几也是重要的。
此外,尽管研究看起来很有前景——准确率超过90%显示出潜力——研究人员是在受控环境中进行的。在现实世界中,模糊的图像、伪造的面部表情、糟糕的角度和微妙的感觉更加常见。换句话说,人工智能可能无法始终如一地表现。
情感识别人工智能的当前状态
算法情绪分析是使用算法来确定文本的语气是积极的、消极的还是中性的过程。这项技术可以说是现代情绪检测模型的基础,因为它为算法情绪评估铺平了道路。类似的技术,如面部识别软件,也为进步做出了贡献。
今天的算法主要可以检测简单的情绪,如幸福、悲伤、愤怒、恐惧和惊讶,具有不同程度的准确性。这些面部表情是天生的和普遍的——这意味着它们是自然的和全球理解的——所以训练人工智能来识别它们相对简单。
此外,基本面部表情通常被夸大。人们在生气时会皱眉,在悲伤时会皱眉,在高兴时会微笑,在震惊时会睁大眼睛。这些简单、夸张的表情很容易区分。更复杂的情绪更难以确定,因为它们是微妙的或组合了基本的面部表情。
由于这类人工智能在很大程度上仍然处于研究和开发阶段,它还没有发展到涵盖复杂的情绪,如渴望、羞耻、悲痛、嫉妒、宽慰或困惑。虽然它可能最终会涵盖更多的情绪,但不能保证它能够解释所有的情绪。
实际上,算法可能永远无法与人类竞争。例如,OpenAI的GPT-4数据集大约为1PB,而人类大脑中1立方毫米的体积包含约1.4PB的数据。神经科学家尽管经过几十年的研究,仍然无法完全理解大脑如何感知情绪,因此构建一个高度精确的人工智能可能是不可能的。
虽然使用这项技术进行情感识别有先例,但这项技术仍然处于初期阶段。有关这项概念的研究很多,但大规模部署的真实例子很少。一些迹象表明,采用率滞后可能是由于人们对不一致的准确性和伦理问题的担忧所致。
人工智能开发者的伦理考虑
根据一项调查,67%的受访者同意人工智能应该受到更多或更严格的监管。为了让人们放心,开发者应该尽量减少偏见,确保他们的模型按预期行为,并改善结果。这些解决方案是可能的,如果他们在开发过程中优先考虑伦理考虑。
1. 知情同意的数据收集和使用
在人工智能监管日益增加的时代,同意是最重要的。如果员工发现他们的面部表情正在被未经同意地记录怎么办?父母是否需要在教育情感分析中签署同意书,还是学生可以自行决定?
开发者应该明确披露模型将要收集的信息、操作时间、分析将用于什么以及谁可以访问这些信息。此外,他们应该包含退出功能,以便个人可以自定义权限。
2. 匿名的情绪分析输出
数据匿名化既是隐私问题也是安全问题。开发者应该匿名化他们收集的情绪信息,以保护相关人员。至少,他们应该考虑使用静态加密。
3. 人机协同决策
使用人工智能来确定某人的情绪状态的唯一原因是为了告知决策。因此,无论是在心理健康方面还是在零售环境中,它都将影响人们。开发者应该利用人机协同的保障措施来尽量减少意外行为。
4. 人工智能输出的以人为中心的反馈
即使算法具有几乎100%的准确率,它仍然会产生假阳性。考虑到模型可能实现50%或70%的准确率——这还没有考虑到偏见或幻觉问题——开发者应该考虑实施反馈系统。
人们应该能够查看人工智能对其情绪状态的评估并在他们认为它是错误时提出上诉。虽然这样的系统需要防护措施和问责制,但它可以减少不准确输出带来的负面影响。
忽视伦理的后果
伦理考虑应该是人工智能工程师、机器学习开发者和企业主的首要任务,因为它影响他们。考虑到日益不确定的公众舆论和日益严格的法规,忽视伦理的后果可能很大。












