-
公开(公告)号:CN115862091A
公开(公告)日:2023-03-28
申请号:CN202211398695.4
申请日:2022-11-09
Applicant: 暨南大学
IPC: G06V40/16 , G06V20/40 , G06V10/82 , G06V10/764 , G06V10/774 , G06F3/14 , G06N3/0464 , G06N3/047 , G06N3/048 , G06N3/084
Abstract: 本发明公开了一种基于Emo‑ResNet的面部表情识别方法、装置、设备和介质,该识别方法基于改进的残差网络,并引入多头自注意力机制,同时在深度注意力中心损失中引入损失函数,并应用到日常的面部表情的识别中。本发明首先获取待识别者的实时动态视频流并进行帧提取操作后保存为静态图片流;然后从待识别的图像中识别出人脸并进行人脸矫正和人脸对齐,裁剪得到对应的人脸图片;随后将人脸图片输入到Emo‑ResNet网络中进行分类训练;最后将判定的面部表情类别以及该面部表情在实时动态视频中的时间在界面中输出,将识别结果可视化。经过实验验证,该方法计算复杂度低,识别率高,更适用于面部表情识别。