-
公开(公告)号:CN113449661A
公开(公告)日:2021-09-28
申请号:CN202110758045.5
申请日:2021-07-05
Applicant: 东南大学
Abstract: 本发明公开了一种基于注意力机制的自适应微表情识别方法,包括如下步骤:对微表情数据库的图像序列进行一系列的预处理工作;每个微表情序列作为一个样本,从每个序列中以一定的间隔选取一定数量的图像,选取的每张图像采用基于运动放大的方法放大1‑9倍;在一组不同的放大图像间添加注意力权重,并将其最终整合成一个特征向量;对于同一序列下的一组图像对应的一组向量,通过注意力机制对这些向量施加不同的注意力权重,再次以相同方式将这些向量整合成一个向量;将最终表示向量送入网络进行训练;获取待识别的微表情图像序列,按照上述方式得到最终表示向量后,输出情感类别。本发明能够获得更高的识别准确率。
-
公开(公告)号:CN115049957A
公开(公告)日:2022-09-13
申请号:CN202210605395.2
申请日:2022-05-31
Applicant: 东南大学
IPC: G06V20/40 , G06V40/16 , G06V10/82 , G06V10/774 , G06V10/764 , G06T7/30 , G06T7/11 , G06N3/04 , G06F16/75 , G06F16/71
Abstract: 本发明公开了一种基于对比放大网络的微表情识别方法及装置,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情帧序列,预处理后采样作为源样本;(3)对于每个源样本,计算剩余帧与该源样本在嵌入空间的距离,并映射成概率,得到距离概率分布;(4)根据概率分布从剩余视频帧中采样多个帧作为负样本;(5)构建对比放大网络;(6)每个源样本进行数据增强形成锚样本和正样本,将锚样本、正样本和对应的负样本作为训练样本输入对比放大网络进行训练,损失函数为视频内对比损失、类间对比损失、交叉熵损失之和;(7)将待识别的微表情视频预处理后输入训练好的对比放大网络,识别出微表情类别。本发明准确率更高,更方便。
-
公开(公告)号:CN115049957B
公开(公告)日:2024-06-07
申请号:CN202210605395.2
申请日:2022-05-31
Applicant: 东南大学
IPC: G06V20/40 , G06V40/16 , G06V10/82 , G06V10/774 , G06V10/764 , G06T7/30 , G06T7/11 , G06N3/0464 , G06F16/75 , G06F16/71
Abstract: 本发明公开了一种基于对比放大网络的微表情识别方法及装置,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情帧序列,预处理后采样作为源样本;(3)对于每个源样本,计算剩余帧与该源样本在嵌入空间的距离,并映射成概率,得到距离概率分布;(4)根据概率分布从剩余视频帧中采样多个帧作为负样本;(5)构建对比放大网络;(6)每个源样本进行数据增强形成锚样本和正样本,将锚样本、正样本和对应的负样本作为训练样本输入对比放大网络进行训练,损失函数为视频内对比损失、类间对比损失、交叉熵损失之和;(7)将待识别的微表情视频预处理后输入训练好的对比放大网络,识别出微表情类别。本发明准确率更高,更方便。
-
公开(公告)号:CN113449661B
公开(公告)日:2022-11-25
申请号:CN202110758045.5
申请日:2021-07-05
Applicant: 东南大学
Abstract: 本发明公开了一种基于注意力机制的自适应微表情识别方法,包括如下步骤:对微表情数据库的图像序列进行一系列的预处理工作;每个微表情序列作为一个样本,从每个序列中以一定的间隔选取一定数量的图像,选取的每张图像采用基于运动放大的方法放大1‑9倍;在一组不同的放大图像间添加注意力权重,并将其最终整合成一个特征向量;对于同一序列下的一组图像对应的一组向量,通过注意力机制对这些向量施加不同的注意力权重,再次以相同方式将这些向量整合成一个向量;将最终表示向量送入网络进行训练;获取待识别的微表情图像序列,按照上述方式得到最终表示向量后,输出情感类别。本发明能够获得更高的识别准确率。
-
公开(公告)号:CN114743235B
公开(公告)日:2024-10-18
申请号:CN202210196086.4
申请日:2022-03-01
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于稀疏化自注意力机制的微表情识别方法及系统,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情图像序列并进行预处理;(3)对预处理后的微表情图像序列使用运动放大网络进行微表情强度的放大,得到增强微表情图像序列;(4)建立微表情识别网络,所述微表情识别网络包括resnet‑18、稀疏化自注意力模块、特征拼接层、第一全连接层、第二全连接层和softmax层(5)训练微表情识别网络;(6)对于待识别的微表情视频,依次按照步骤(2)、(3)处理,并输入训练好的微表情识别网络,得到对应的微表情类别。本发明识别准确率更高。
-
公开(公告)号:CN114743235A
公开(公告)日:2022-07-12
申请号:CN202210196086.4
申请日:2022-03-01
Applicant: 东南大学
IPC: G06V40/16 , G06V10/774 , G06K9/62
Abstract: 本发明公开了一种基于稀疏化自注意力机制的微表情识别方法及系统,方法包括:(1)获取微表情数据库(2)将微表情视频转换为微表情图像序列并进行预处理;(3)对预处理后的微表情图像序列使用运动放大网络进行微表情强度的放大,得到增强微表情图像序列;(4)建立微表情识别网络,所述微表情识别网络包括resnet‑18、稀疏化自注意力模块、特征拼接层、第一全连接层、第二全连接层和softmax层(5)训练微表情识别网络;(6)对于待识别的微表情视频,依次按照步骤(2)、(3)处理,并输入训练好的微表情识别网络,得到对应的微表情类别。本发明识别准确率更高。
-
公开(公告)号:CN115830682A
公开(公告)日:2023-03-21
申请号:CN202211562229.5
申请日:2022-12-07
Applicant: 东南大学
IPC: G06V40/16
Abstract: 本发明公开了一种基于样本自适应的微表情放大方法及装置,包括:(1)获取微表情数据库;(2)将微表情视频转换为微表情帧序列,并对序列长度进行统一;(3)构建微表情放大模型,所述微表情放大模型包括:强度提取模块,强度变化曲线构造模块,强度校正模块,人脸增强模块,微表情特征整合模块,(4)将统一长度的微表情帧序列和对应的微表情类别标签作为样本输入微表情放大模型进行训练,训练时采用的损失函数包括微表情特征向量交叉熵损失、强度提取的损失和强度校正的损失;(5)将待放大的微表情视频进行长度统一后输入训练好的微表情放大模型,得到放大后的微表情特征向量。本发明可以根据每个微表情视频进行自适应放大,效果更好。
-
-
-
-
-
-