-
公开(公告)号:CN109800771B
公开(公告)日:2021-03-05
申请号:CN201910089341.3
申请日:2019-01-30
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。
-
公开(公告)号:CN109635712B
公开(公告)日:2021-02-05
申请号:CN201811492660.0
申请日:2018-12-07
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种基于同构网络的自发微表情种类判别方法。本发明首先进行样本制作,包括RGB样本与光流差值样本的制作。然后将将不同样本分别置入网络中进行训练,训练方式为微调。最后将经过不同训练样本训练后的网络,同构合成所述的同构网络,利用同构网络产生判别结果。本发明中的光流差值样本既包含自发微表情变化的形变信息,又通过求差值去除了非自发微表情变化的环境干扰。结合样本的空间信息与时序变化的时间信息,组成具有时空特征的光流差值样本。对于本发明中的RGB样本以及光流差值样本,利用经过微调的网络对其提取特征,不仅充分结合颜色信息与时空信息,得到的特征更能表示当前样本类别,而且解决自发微表情数据样本少的难题。
-
公开(公告)号:CN108446589B
公开(公告)日:2022-03-22
申请号:CN201810122730.7
申请日:2018-02-07
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/77 , G06V10/764 , G06K9/62
Abstract: 本发明公开一种复杂环境下基于低秩分解和辅助字典的人脸识别方法。本发明步骤如下:1.通过非凸稳健主成分分析法对输入人脸图片进行低秩分解,求解基于范数的目标函数,得到初步去除复杂环境影响的低秩内容;2.基于核范数的去相关性低秩分解:在目标函数中添加去除类间相关性的正则项,并将上一步骤获得的低秩内容进行奇异值分解后用作初始化矩阵,通过ADMM算法交替迭代求解得到用于识别的低秩字典。3.基于辅助字典学习的分类识别:获得模拟复杂环境变化的辅助字典,并通过与低秩字典联立使用,通过RADL进行人脸分类识别。本发明使用到的低秩分解目标函数能够充分去除干扰信息,使分解后的人脸图像更具有身份识别能力和抗环境干扰性。
-
公开(公告)号:CN109800771A
公开(公告)日:2019-05-24
申请号:CN201910089341.3
申请日:2019-01-30
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种混合时空平面局部二值模式的自发微表情定位方法。本发明根据自发微表情视频中连续帧的相关性,通过精细匹配实现了像素级人脸区域对齐,从而对头部偏移等干扰具有较强的抗干扰能力。同时在空间轴平面提取扇形区域特征,并在时间轴提取去冗余的线性特征,既减少了特征点冗余计算,又通过非线性特征融合的方式结合时空特征,形成更完备的特征表示,因此能更加鲁棒地表示自发微表情,提高了自发微表情视频中自发微表情定位精确率。
-
公开(公告)号:CN111264951B
公开(公告)日:2022-02-22
申请号:CN202010236661.X
申请日:2020-03-30
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种基于深度学习的非接触式旗袍定制人体三维尺寸测量方法。本发明首先在COCO数据集上训练得到能够将人体与复杂背景分离的网络模型。其次获取对象背、侧面图像。依据模型定位人体坐标与遮罩,并提取出以人体对象为中心的二值图。然后依据人体各部位的表现特征,定位各个特征点所在坐标,得到第一尺寸组。再根据特征点坐标以及第一尺寸组,将目标人体的体型分成多个类别,使用不同的计算公式获取人体三维围度尺寸,即第二尺寸组。本发明针对服装定制提出新颖的腋窝点、颈点、腰高点定位方法,针对旗袍定制提出前腰节、后腰节、前胸宽、后背宽等尺寸的非接触式测量方法,同时根据人体身体特征对特征点定位、围度计算进行微调。
-
公开(公告)号:CN111264951A
公开(公告)日:2020-06-12
申请号:CN202010236661.X
申请日:2020-03-30
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种基于深度学习的非接触式旗袍定制人体三维尺寸测量方法。本发明首先在COCO数据集上训练得到能够将人体与复杂背景分离的网络模型。其次获取对象背、侧面图像。依据模型定位人体坐标与遮罩,并提取出以人体对象为中心的二值图。然后依据人体各部位的表现特征,定位各个特征点所在坐标,得到第一尺寸组。再根据特征点坐标以及第一尺寸组,将目标人体的体型分成多个类别,使用不同的计算公式获取人体三维围度尺寸,即第二尺寸组。本发明针对服装定制提出新颖的腋窝点、颈点、腰高点定位方法,针对旗袍定制提出前腰节、后腰节、前胸宽、后背宽等尺寸的非接触式测量方法,同时根据人体身体特征对特征点定位、围度计算进行微调。
-
公开(公告)号:CN108446589A
公开(公告)日:2018-08-24
申请号:CN201810122730.7
申请日:2018-02-07
Applicant: 杭州电子科技大学
Abstract: 本发明公开一种复杂环境下基于低秩分解和辅助字典的人脸识别方法。本发明步骤如下:1.通过非凸稳健主成分分析法对输入人脸图片进行低秩分解,求解基于范数的目标函数,得到初步去除复杂环境影响的低秩内容;2.基于核范数的去相关性低秩分解:在目标函数中添加去除类间相关性的正则项,并将上一步骤获得的低秩内容进行奇异值分解后用作初始化矩阵,通过ADMM算法交替迭代求解得到用于识别的低秩字典。3.基于辅助字典学习的分类识别:获得模拟复杂环境变化的辅助字典,并通过与低秩字典联立使用,通过RADL进行人脸分类识别。本发明使用到的低秩分解目标函数能够充分去除干扰信息,使分解后的人脸图像更具有身份识别能力和抗环境干扰性。
-
公开(公告)号:CN112784804B
公开(公告)日:2024-03-19
申请号:CN202110149925.2
申请日:2021-02-03
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/25 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于神经网络敏感性分析的微表情识别方法。本发明首先构造一个基础的深度神经网络并在ImageNet数据集上进行预训练,再在宏表情数据集CK+上进行微调。接着,使用神经网络敏感性分析工具TCAV量化地分析该模型在表情判别过程时,人脸感兴趣区域在各层的敏感性。本发明提取TCAV分数最高层的输出,采用特征融合技术设计新的网络结构,并在微表情数据集上进行迁移学习,得到针对微表情识别的网络模型。本发明能有效提高微表情种类识别的性能。
-
公开(公告)号:CN111767842B
公开(公告)日:2024-02-06
申请号:CN202010604155.1
申请日:2020-06-29
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/096
Abstract: 本发明公开了一种基于迁移学习和自编码器数据增强的微表情种类判别方法。本发明首先构造MecNet微表情种类判别网络:选取在ImageNet上预训练好的CNN模型,保留卷积层及预训练参数,在其后添加全连接层和softmax分类器。其次构造MegNet微表情生成网络:MegNet使用亚洲人微表情样本生成欧美人微表情样本。MegNet的下采样模块、上采样模块和损失函数分别基于卷积、子像素卷积和图像结构相似性设计。将生成的微表情样本加入MecNet训练集进行数据增强,训练MecNet。最后使用MecNet判别微表情种类。本发明使用MegNet进行数据增强能够有效提高MecNet微表情种类判别性能。
-
公开(公告)号:CN112784804A
公开(公告)日:2021-05-11
申请号:CN202110149925.2
申请日:2021-02-03
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于神经网络敏感性分析的微表情识别方法。本发明首先构造一个基础的深度神经网络并在ImageNet数据集上进行预训练,再在宏表情数据集CK+上进行微调。接着,使用神经网络敏感性分析工具TCAV量化地分析该模型在表情判别过程时,人脸感兴趣区域在各层的敏感性。本发明提取TCAV分数最高层的输出,采用特征融合技术设计新的网络结构,并在微表情数据集上进行迁移学习,得到针对微表情识别的网络模型。本发明能有效提高微表情种类识别的性能。
-
-
-
-
-
-
-
-
-