基于多尺度时空特征神经网络的微表情识别方法

    公开(公告)号:CN112560810A

    公开(公告)日:2021-03-26

    申请号:CN202110188615.1

    申请日:2021-02-19

    Abstract: 本申请涉及基于多尺度时空特征神经网络的微表情识别方法,可以从微表情视频帧中学习到微表情的空间域与时间域的特征,将两者特征结合形成更加鲁棒的微表情特征。同时针对微表情发生在面部局部区域,将微表情产生的活跃的局部地区与全局区域相结合用于微表情识别。解决了微表情连续帧之间特征提取不足,以及微表情在局部区域较为活跃的问题。本发明对自发式微表情的准确率,相比于其它方法,具有一定的优势,78.7%的准确率充分说明本发明对微表情的识别取得良好的成效。

    基于微表情、肢体动作和语音的多模态情感识别方法

    公开(公告)号:CN113469153B

    公开(公告)日:2022-01-11

    申请号:CN202111033403.2

    申请日:2021-09-03

    Abstract: 本发明提供了一种基于微表情、肢体动作和语音的多模态情感识别方法,包括:第一步输入受试者接收某种信号的刺激的面部视频,对微表情进行识别;第二步输入受试者接收某种信号的刺激的身体视频,对肢体动作进行识别;第三步输入受试者接收某种信号的刺激的音频信号,对语音情感进行识别。将步骤第一步中的微表情识别结果和步骤第二步中肢体动作识别结果和第三步中的语音情感识别结果相融合,判断当前受试者的连续情感状态。本方法通过微表情识别出的情感和肢体动作识别和语音情感识别结果情感相结合,更准确的预测出受试者的情感状态。本发明的有益效果是:相较于现有技术,本发明可以更加准确的识别出人的真实情感。

    基于微表情、肢体动作和语音的多模态情感识别方法

    公开(公告)号:CN113469153A

    公开(公告)日:2021-10-01

    申请号:CN202111033403.2

    申请日:2021-09-03

    Abstract: 本发明提供了一种基于微表情、肢体动作和语音的多模态情感识别方法,包括:第一步输入受试者接收某种信号的刺激的面部视频,对微表情进行识别;第二步输入受试者接收某种信号的刺激的身体视频,对肢体动作进行识别;第三步输入受试者接收某种信号的刺激的音频信号,对语音情感进行识别。将步骤第一步中的微表情识别结果和步骤第二步中肢体动作识别结果和第三步中的语音情感识别结果相融合,判断当前受试者的连续情感状态。本方法通过微表情识别出的情感和肢体动作识别和语音情感识别结果情感相结合,更准确的预测出受试者的情感状态。本发明的有益效果是:相较于现有技术,本发明可以更加准确的识别出人的真实情感。

    基于多尺度时空特征神经网络的微表情识别方法

    公开(公告)号:CN112560810B

    公开(公告)日:2021-07-02

    申请号:CN202110188615.1

    申请日:2021-02-19

    Abstract: 本申请涉及基于多尺度时空特征神经网络的微表情识别方法,可以从微表情视频帧中学习到微表情的空间域与时间域的特征,将两者特征结合形成更加鲁棒的微表情特征。同时针对微表情发生在面部局部区域,将微表情产生的活跃的局部地区与全局区域相结合用于微表情识别。解决了微表情连续帧之间特征提取不足,以及微表情在局部区域较为活跃的问题。本发明对自发式微表情的准确率,相比于其它方法,具有一定的优势,78.7%的准确率充分说明本发明对微表情的识别取得良好的成效。

Patent Agency Ranking