关注我们.

人工智能

全新AI人脸识别技术更进一步

mm

人工智能在面部识别技术中的应用似乎是迄今为止发展最快的技术之一。 作为 网易科技 笔记,到目前为止,公司喜欢 Microsoft 已经开发出面部识别技术,可以使用情感工具识别面部表情(FR)。 但到目前为止,限制因素是这些工具仅限于八个所谓的核心状态 -  愤怒、蔑视、恐惧、厌恶、快乐、悲伤、惊讶或中性。 

现在加入日本科技开发商 富士通,基于人工智能的技术使面部识别在跟踪表达的情绪方面更进一步。

正如 ZDNet 所解释的那样,现有的 FR 技术基于“i识别各种动作单元(AU)——即我们做出的某些面部肌肉运动,这些运动可以与特定的情绪联系起来。” 在给定的示例中,“如果 AU '脸颊抬起者'和 AU '唇角拉扯者'同时被识别,人工智能可以得出结论,它正在分析的人是快乐的。

正如富士通发言人所解释的那样, 当前技术的问题在于,人工智能需要针对每个天文单位(AU)进行海量数据集的训练。它需要知道如何从所有可能的角度和位置识别AU。但我们没有足够的图像来实现这一点——因此,通常情况下,它的准确性并不高。

训练AI有效检测情绪需要大量数据,目前的FR很难真正识别被测者的感受。 如果这个人没有坐在镜头前直视镜头,任务就会变得更加困难。 许多专家已经在一些领域证实了这些问题 最近的研究.

富士通声称已经找到了一种解决方案,可以提高面部识别结果检测情绪的质量。 他们新创建的工具没有使用大量图像来训练人工智能,而是“从一张图片中提取更多数据。” 该公司称之为“标准化过程”,其中涉及将从特定角度拍摄的照片转换为类似于正面照片的图像。

正如发言人所解释的那样, “使用相同的有限数据集,我们可以更好地检测更多的 AU,即使是从倾斜角度拍摄的照片,并且有了更多的 AU,我们可以识别复杂的情绪,这比目前分析的核心表达更微妙。”

该公司声称现在可以“检测像紧张的笑声这样复杂的情绪变化,检测准确率达到81%,这个数字是通过‘标准评估方法’确定的。” 相比之下,根据 独立研究微软工具的准确率为 60%,并且在处理从更倾斜角度拍摄的照片时,在检测情绪方面也存在问题。

作为潜在的应用,富士通提到其新工具除其他外可用于道路安全“通过检测驾驶员注意力的细微变化。”

前联合国外交官和翻译,现任自由记者/作家/研究员,专注于现代技术、人工智能和现代文化。