基于迁移学习的音频和文本的宽时间范畴情感识别方法

    公开(公告)号:CN117633587B

    公开(公告)日:2024-12-06

    申请号:CN202311573437.X

    申请日:2023-11-23

    Abstract: 本发明公开涉及基于迁移学习的音频和文本的宽时间范畴情感识别方法,通过使用预训练模型VGGish和BERTbase提取音频和文本两个模态的情感特征,从不同的角度对目标人物的情感进行分析;通过事实描述和文本描述进行情感特征的提取,在宽时间范畴内对目标人物目前的情感状态进行更准确的推理,通过在SVCEmotion数据集的音频和文本描述数据上的实验证明,VGGish和BERTbase预训练模型均能在本文使用的数据集上实现良好的效果,模型在预训练过程中学习到的参数能够有效的提升其在目标任务上的表现;对比实验证明,SVCEmotion数据集中针对宽时间范畴下的情感识别任务引入的情境描述可以为情感识别提供线索,且与事实描述结合能大幅提升情感识别效果。

    一种基于注意力机制的面部和情景情感识别方法

    公开(公告)号:CN117636426B

    公开(公告)日:2024-11-22

    申请号:CN202311573364.4

    申请日:2023-11-23

    Abstract: 本公开涉及一种基于注意力机制的面部和情景情感识别方法,通过引入注意力机制,使模型在特征提取过程中将更多的注意力用于关键信息的学习,在两个支路的情感识别中都有效提升了模型的识别率。在面部表情识别支路,通道注意力机制的引入提升了模型对关键信息的表达能力,特征选择融合方法缓解了面部表情不确定性引起的模型表现差的问题。在情景支路使用多尺度融合的方式增强模型对图像高级语义和空间信息的表达能力,通过高级特征和低级特征的互补,提升了模型的情景情感识别效果,并在最后的对比实验中证明,本申请的情感识别方法在数据集上能够得到比其他方法更好的识别效果。

    一种基于注意力机制的面部和情景情感识别方法

    公开(公告)号:CN117636426A

    公开(公告)日:2024-03-01

    申请号:CN202311573364.4

    申请日:2023-11-23

    Abstract: 本公开涉及一种基于注意力机制的面部和情景情感识别方法,通过引入注意力机制,使模型在特征提取过程中将更多的注意力用于关键信息的学习,在两个支路的情感识别中都有效提升了模型的识别率。在面部表情识别支路,通道注意力机制的引入提升了模型对关键信息的表达能力,特征选择融合方法缓解了面部表情不确定性引起的模型表现差的问题。在情景支路使用多尺度融合的方式增强模型对图像高级语义和空间信息的表达能力,通过高级特征和低级特征的互补,提升了模型的情景情感识别效果,并在最后的对比实验中证明,本申请的情感识别方法在数据集上能够得到比其他方法更好的识别效果。

    基于迁移学习的音频和文本的宽时间范畴情感识别方法

    公开(公告)号:CN117633587A

    公开(公告)日:2024-03-01

    申请号:CN202311573437.X

    申请日:2023-11-23

    Abstract: 本发明公开涉及基于迁移学习的音频和文本的宽时间范畴情感识别方法,通过使用预训练模型VGGish和BERTbase提取音频和文本两个模态的情感特征,从不同的角度对目标人物的情感进行分析;通过事实描述和文本描述进行情感特征的提取,在宽时间范畴内对目标人物目前的情感状态进行更准确的推理,通过在SVCEmotion数据集的音频和文本描述数据上的实验证明,VGGish和BERTbase预训练模型均能在本文使用的数据集上实现良好的效果,模型在预训练过程中学习到的参数能够有效的提升其在目标任务上的表现;对比实验证明,SVCEmotion数据集中针对宽时间范畴下的情感识别任务引入的情境描述可以为情感识别提供线索,且与事实描述结合能大幅提升情感识别效果。

Patent Agency Ranking