-
公开(公告)号:CN112580590B
公开(公告)日:2024-04-05
申请号:CN202011593048.X
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G06V40/14 , G06V10/82 , G06V10/80 , G06V10/774 , G06V10/74 , G06V10/764 , G06V10/40 , G06N3/045 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于多语义特征融合网络的指静脉识别方法。首先采集指静脉图像,并进行数据增强,制作训练集、测试集;然后搭建特征提取网络,包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层;再构建损失函数;通过训练集训练特征提取网络;最后将测试集中的待分类图像输入到训练好的特征提取网络模型中,获取待分类图像的图像特征,并且对特征进行匹配计算,获取识别结果。本发明方法有效得提升了指静脉图像识别率,与其他方法相比拒识率均有明显下降。
-
公开(公告)号:CN112488934B
公开(公告)日:2024-02-09
申请号:CN202011350788.0
申请日:2020-11-26
Applicant: 杭州电子科技大学
IPC: G06T5/70 , G06V10/774 , G06N3/0464 , G06T7/40 , G06T7/00
Abstract: 本发明公开了一种基于CS‑TCGAN的指静脉图像去噪方法。包括以下步骤:构造训练集;设计生成器网络结构;设计判别器网络结构;设计基于纹理损失的损失函数;训练整个模型;输入真实带噪指静脉图像生成去噪后的图像。本发明首先利用基于指静脉噪声特性构造的训练集提升去噪模型的泛化性。其次在损失函数中加入纹理损失项,解决原损失函数对于纹理模糊图像约束效果不佳的问题,并且生成器网络采用维度保持结构,解决使用反卷积带来的细节损失问题。较传统的去噪算法和经典的CGAN去噪模型,本发明的去噪模型对静脉信息保留的程度更好,去除噪声的同时更有效地恢复带噪图像的静脉信息,进一步提升了指静脉识别技术在噪声环境下的应用性能。
-
公开(公告)号:CN112488934A
公开(公告)日:2021-03-12
申请号:CN202011350788.0
申请日:2020-11-26
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于CS‑TCGAN的指静脉图像去噪方法。包括以下步骤:构造训练集;设计生成器网络结构;设计判别器网络结构;设计基于纹理损失的损失函数;训练整个模型;输入真实带噪指静脉图像生成去噪后的图像。本发明首先利用基于指静脉噪声特性构造的训练集提升去噪模型的泛化性。其次在损失函数中加入纹理损失项,解决原损失函数对于纹理模糊图像约束效果不佳的问题,并且生成器网络采用维度保持结构,解决使用反卷积带来的细节损失问题。较传统的去噪算法和经典的CGAN去噪模型,本发明的去噪模型对静脉信息保留的程度更好,去除噪声的同时更有效地恢复带噪图像的静脉信息,进一步提升了指静脉识别技术在噪声环境下的应用性能。
-
公开(公告)号:CN114299559A
公开(公告)日:2022-04-08
申请号:CN202111617415.X
申请日:2021-12-27
Applicant: 杭州电子科技大学
Abstract: 本文公开了一种基于轻量级融合全局与局部特征网络的指静脉识别方法。1、构造数据集,并划分训练集和测试集;2、基于轻量级残差单元,设计轻量级融合全局与局部特征网络FGL‑MobileNet;3、设计基于融合全局与局部特征的FGL‑Net网络,包括基于改进残差网络的主干网络和全局特征与局部特征提取模块;4、设计网络损失函数;5、训练整个FGL‑MobileNet网络模型,直至迭代训练整个训练集若干次;6、将测试集图像输入训练好的FGL‑MobileNet网络模型中提取手指静脉特征并进行识别比对。本发明通过堆叠该单元搭建FGL‑MobileNet,使得网络能够快速有效的扩大指静脉特征的感受野从而获取更加丰富的指静脉细节特征,使得提取的指静脉特征更具区分力,同时网络参数量也得到大大降低。
-
公开(公告)号:CN112733627B
公开(公告)日:2024-02-09
申请号:CN202011580283.3
申请日:2020-12-28
Applicant: 杭州电子科技大学
IPC: G06V40/10 , G06V10/42 , G06V10/44 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于融合局部与全局特征网络的指静脉识别方法。本发明包括以下步骤:S1、构造训练数据集,采集若干个用户手指图像Ibasic,作为基础训练集,对基础训练集Ibasic进行扩充,经过归一化处理得到训练数据集Itrain;S2、设计基于融合局部与全局特征的指静脉特征提取网络;S3、设计网络损失函数;S4、训练整个模型,直至迭代训练整个训练集若干次;S5、将测试集图像输入训练好的模型中提取指静脉特征,采用欧式距离进行1∶1比对识别。本发明提取的指静脉特征对于放置手指姿态变化的鲁棒性更强,识别性能性能更高,充分说明了本发明的有效性,进一步提升了指静脉识别技术在现实环境下的应用性能。
-
公开(公告)号:CN112580590A
公开(公告)日:2021-03-30
申请号:CN202011593048.X
申请日:2020-12-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于多语义特征融合网络的指静脉识别方法。首先采集指静脉图像,并进行数据增强,制作训练集、测试集;然后搭建特征提取网络,包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层;再构建损失函数;通过训练集训练特征提取网络;最后将测试集中的待分类图像输入到训练好的特征提取网络模型中,获取待分类图像的图像特征,并且对特征进行匹配计算,获取识别结果。本发明方法有效得提升了指静脉图像识别率,与其他方法相比拒识率均有明显下降。
-
公开(公告)号:CN114299559B
公开(公告)日:2025-02-07
申请号:CN202111617415.X
申请日:2021-12-27
Applicant: 杭州电子科技大学
Abstract: 本文公开了一种基于轻量级融合全局与局部特征网络的指静脉识别方法。1、构造数据集,并划分训练集和测试集;2、基于轻量级残差单元,设计轻量级融合全局与局部特征网络FGL‑MobileNet;3、设计基于融合全局与局部特征的FGL‑Net网络,包括基于改进残差网络的主干网络和全局特征与局部特征提取模块;4、设计网络损失函数;5、训练整个FGL‑MobileNet网络模型,直至迭代训练整个训练集若干次;6、将测试集图像输入训练好的FGL‑MobileNet网络模型中提取手指静脉特征并进行识别比对。本发明通过堆叠该单元搭建FGL‑MobileNet,使得网络能够快速有效的扩大指静脉特征的感受野从而获取更加丰富的指静脉细节特征,使得提取的指静脉特征更具区分力,同时网络参数量也得到大大降低。
-
公开(公告)号:CN112733627A
公开(公告)日:2021-04-30
申请号:CN202011580283.3
申请日:2020-12-28
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于融合局部与全局特征网络的指静脉识别方法。本发明包括以下步骤:S1、构造训练数据集,采集若干个用户手指图像Ibasic,作为基础训练集,对基础训练集Ibasic进行扩充,经过归一化处理得到训练数据集Itrain;S2、设计基于融合局部与全局特征的指静脉特征提取网络;S3、设计网络损失函数;S4、训练整个模型,直至迭代训练整个训练集若干次;S5、将测试集图像输入训练好的模型中提取指静脉特征,采用欧式距离进行1∶1比对识别。本发明提取的指静脉特征对于放置手指姿态变化的鲁棒性更强,识别性能性能更高,充分说明了本发明的有效性,进一步提升了指静脉识别技术在现实环境下的应用性能。
-
-
-
-
-
-
-