每个人走路的方式都不一样,它揭示了更多关于你的秘密,比如你每时每刻的情绪。例如,当你情绪低落或情绪低落时,你更可能会耷拉着肩膀,而不是昂首阔步地走路。使用这种肢体语言,教堂山大学和马里兰大学的研究人员最近开发了一种机器学习方法,可以从他们的步态识别一个人当前的情绪,包括情绪倾向。(消极或积极)和唤醒水平(平静或充满活力)。据研究人员称,该方法在初步实验中达到了80.07%的准确率。研究人员写道:“情绪在我们的生活中扮演着重要的角色,它定义了我们的经历,塑造了我们看待世界和与他人互动的方式。”“由于感知情绪在日常生活中的重要性,自动情绪识别是许多领域的关键问题,例如游戏和娱乐、安全和执法、购物和人机交互。”研究人员选择了四种情绪——快乐、悲伤、愤怒和中性——作为测试步态分析算法的例证,然后他们从多个步行视频语料库中提取步态来识别情绪特征,并使用3D姿势估计技术来提取姿势。最后,他们利用长短期记忆(LSTM)模型——能够学习长期依赖关系——从姿势序列中获取特征,并将它们与随机森林分类器(输出多个独立决策树的平均预测)相结合),将分析的步态分为以上四种情绪类别。这些特征包括肩部姿势、连续步骤之间的距离以及手和脖子之间的晃动频率。头部倾斜角度用于区分快乐和悲伤的情绪,而更多紧凑的姿势和“身体扩张”分别代表消极和积极的情绪。至于唤醒程度,科学家们指出倾向于对应于增加的运动,该模型考虑了手、脚和头关节的速度、加速度大小和“运动冲击”。AI系统处理了来自EmotionWalk,简称EWalk的样本。EWalk是一个新的数据集,包含从24名受试者在大学校园(室内和室外)行走的视频中提取的1384种步态。来自AmazonMechanicalTurk的大约700名参与者标记了情绪,研究人员使用这些情绪来确定他们的倾向和唤醒。在测试中,该团队报告说,他们的情绪检测方法的准确度比最先进的算法提高了13.85%,比不考虑情绪特征的“正常”LSTM提高了24.60%。这并不是说它是完美的,毕竟它的准确性在很大程度上取决于3D人体姿势估计和步态提取的准确性。但尽管存在这些限制,该团队相信他们的方法将为涉及额外活动和其他情绪识别算法的研究提供坚实的基础。“我们的方法也是第一个使用最先进的3D人体姿势估计来为步行视频中的情绪识别提供实时通道的方法,”研究人员说。“我们希望收集更多数据作为未来工作的一部分。”设置并改进当前系统中存在的局限性。”
