-
公开(公告)号:CN110188614A
公开(公告)日:2019-08-30
申请号:CN201910362779.4
申请日:2019-04-30
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于皮裂纹分割的NLM滤波指静脉去噪方法。首先用多尺度Frangi滤波算法对手指蜕皮导致形成皮裂纹特征的指静脉图像进行滤波响应分析,选择空间尺度大小以及分割阈值。然后根据皮裂纹二值图对检测到的受皮裂纹干扰的区域采用NLM滤波去噪,而非受干扰区域不作去噪处理。基于开关型非局部均值滤波的指静脉去噪算法,特定针对蜕皮的皮裂纹区域进行去噪,减少伪静脉的干扰同时不会对正常静脉区域的信息造成损失,且应用在手指静脉图像上可以充分利用了图像上其他区域的冗余信息,能起一定的修复作用,去噪效果更佳。因此,本发明是一种对手指蜕皮类的指静脉图像去噪效果较好的指静脉去噪算法。
-
公开(公告)号:CN105429925B
公开(公告)日:2018-10-19
申请号:CN201510795557.3
申请日:2015-11-18
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于快速独立分量分析的多天线OFDMA信号解码方法。本发明包括以下步骤:步骤1、根据快速独立分量分析算法对于输入信号的要求,建立信号模型;步骤2、在高斯噪声下对观测向量进行PCA白化;步骤3、不需要知道任何有关子载波的信息,将多个调制在OFDMA子载波用户信息进行分离;步骤4、子载波序列估计和OFDMA用户识别。本发明以Fast‑ICA为基础对多天线OFDMA信号进行数学统计建模,并进行信道盲估计和解码,在不去除循环前缀的情况下增加了信号能量,提高了解码性能。该方法在接收端不需要定时,对OFDMA信号进行盲分离解码,解码性能好。
-
公开(公告)号:CN108256456A
公开(公告)日:2018-07-06
申请号:CN201810015658.8
申请日:2018-01-08
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于多特征阈值融合的手指静脉识别方法。本发明先用基于多标准差的二维高斯模板计算手指静脉图像曲率提取图像的背景区域曲率灰度特征,静脉区域曲率灰度特征和曲率细线特征。用相关系数法计算背景区域曲率灰度特征和静脉区域曲率灰度特征的匹配阈值,用MHD算法计算曲率细线特征的匹配阈值,再提出一种多特征阈值融合判决算法,融合以上三种特征的单独识别阈值进行验证判决。本发明提出的基于三种特征阈值融合的算法,由于结合了背景区域曲率灰度特征包含的背景区域可用信息,对模糊的手指静脉图像识别性能下降不明显,因此在低认假率下的拒真率显著低于传统的基于单独细线特征的识别算法,能够合理且高效利用的有效的识别算法。
-
公开(公告)号:CN106789789A
公开(公告)日:2017-05-31
申请号:CN201611245474.8
申请日:2016-12-29
Applicant: 杭州电子科技大学
Abstract: 本发明公开了WCDMA信号扰码估计和信源信息盲解码方法。本发明为解决WCDMA信号中信源信息和扰码盲估计问题,提出采用独立分量分析结合锁相环技术,在多用户和载波频率未知情况下估计不同用户的扰码序列和信源信息。首先利用扰码和OVSF码叠加序列的帧重复性,进行帧等间隔采样,建模成载波调制盲源分离的形式,其次利用复ICA方法分别估计出不同用户载波调制的信息码和扰码,然后将ICA所得的信息码和扰码通过锁相环以去掉频偏,通过判决可估计出原始信息码和扰码。在载波频率未知情况下,本发明可以有效识别多用户WCDMA信号扰码序列并对信源信息进行盲解码,并且比基于奇异值分解长扰码估计方法具有更好的性能。
-
公开(公告)号:CN104038249B
公开(公告)日:2016-08-24
申请号:CN201410199108.8
申请日:2014-05-12
Applicant: 杭州电子科技大学
IPC: H04B1/707
Abstract: 本发明涉及一种周期长码直扩信号伪随机码估计算法。目前直扩信号伪随机码估计技术无法应用于采用短码扩频长码加扰的周期长码直扩信号。本发明方法是:首先计算周期长码直扩信号的延迟三阶相关函数;然后搜索得到可能的共同峰坐标;再利用共同峰坐标得到若干组待选的长码和短码m序列本原多项式组合;最后检验待选组合得到信号长码和短码m序列估计。本发明充分利用两个m序列的三阶相关函数共同峰所对应的多项式的最大公约式的因式中同时包含这两个m序列本原多项式的原理,实现对周期长码直扩信号两个伪随机码的同时估计。
-
公开(公告)号:CN118298176A
公开(公告)日:2024-07-05
申请号:CN202410462540.5
申请日:2024-04-17
IPC: G06V10/26 , G06V20/40 , G06V20/70 , G06N3/0464 , G06N3/08 , G06V10/42 , G06V10/44 , G06V10/80 , G06V10/82 , G06V10/774 , G06V10/75 , G06V10/10 , G06T7/00
Abstract: 本发明公开了一种视神经鞘超声图像分割方法、系统及医疗设备。本发明基于YOLOV5s模型,对视神经鞘超声图像设计全新的特征融合,在YOLOv5s模型中结合包含WTA结构的C3STR模块、包含MHSA结构的BOT3模块以及包含分支结构和可逆块操作的CRTN模块,利用C3STR模块的窗口注意力机制以及BOT3模块的多头自注意力机制捕获视神经鞘图像的全局特征,另外利用CRTN模块中的多层非线性变换以及残差结构更好的捕捉视神经鞘的模糊边界,使得网络对于复杂图像下的视神经鞘分割更为准确。实现对输入图像局部特征以及全局特征的融合,实现视神经鞘超声图像的分割。
-
公开(公告)号:CN118013371A
公开(公告)日:2024-05-10
申请号:CN202410257338.9
申请日:2024-03-07
Applicant: 杭州电子科技大学
IPC: G06F18/241 , G06F18/213 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06F18/10
Abstract: 基于频域构造的残差网络干扰识别算法提取压制干扰特征时,泛化能力较弱,在低干噪比下受噪声影响大。为此,针对5类频谱图相似的压制干扰信号,设计了一种基于灰度时域图和FFA‑Transformer网络的方法来提取压制干扰特征。将一维的时域信号构造成体现信号特征的灰度时域图,使得网络能够提取更多信号特征,并搭建FFA‑Transformer网络,利用该网络实现5类压制干扰信号的识别,该网络通过加权平均的方式融合编码器输出的全局特征和局部特征,网络同时关注纹理等全局特征和边缘等局部特征,加强了全局特征和局部特征的关联性,较传统ViT网络和传统CNN网络训练频谱图和时域图更能高精度地实现5类压制干扰信号的识别。
-
公开(公告)号:CN117912062A
公开(公告)日:2024-04-19
申请号:CN202410254669.7
申请日:2024-03-06
Applicant: 杭州电子科技大学
IPC: G06V40/10 , G06V10/25 , G06V10/40 , G06V10/774 , G06V10/80 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 针对牧场中不同实际场景下光照、色彩与牛只品种的差异导致的牛只图像低层特征多样化,而高层特征中语义信息不能完全匹配多样化的低层特征从而导致检测性能下降的难题。本发明公开了一种基于ResMO‑Dense‑YOLO的牛只检测方法,在骨干网络中利用ResMO模块多语义层面关注牛只高层特征的特性丰富语义信息,结合SPPF结构和多层卷积结构扩大感受野,使得模型更好的提取牛只的高层特征;提出基于DenseBlock的特征金字塔和路径聚合网络级联的Neck网络,进一步融合牛只的低层特征位置信息与高层特征语义信息,提高模型检测精度。
-
公开(公告)号:CN112580590B
公开(公告)日:2024-04-05
申请号:CN202011593048.X
申请日:2020-12-29
Applicant: 杭州电子科技大学
IPC: G06V40/14 , G06V10/82 , G06V10/80 , G06V10/774 , G06V10/74 , G06V10/764 , G06V10/40 , G06N3/045 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于多语义特征融合网络的指静脉识别方法。首先采集指静脉图像,并进行数据增强,制作训练集、测试集;然后搭建特征提取网络,包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层;再构建损失函数;通过训练集训练特征提取网络;最后将测试集中的待分类图像输入到训练好的特征提取网络模型中,获取待分类图像的图像特征,并且对特征进行匹配计算,获取识别结果。本发明方法有效得提升了指静脉图像识别率,与其他方法相比拒识率均有明显下降。
-
公开(公告)号:CN112488934B
公开(公告)日:2024-02-09
申请号:CN202011350788.0
申请日:2020-11-26
Applicant: 杭州电子科技大学
IPC: G06T5/70 , G06V10/774 , G06N3/0464 , G06T7/40 , G06T7/00
Abstract: 本发明公开了一种基于CS‑TCGAN的指静脉图像去噪方法。包括以下步骤:构造训练集;设计生成器网络结构;设计判别器网络结构;设计基于纹理损失的损失函数;训练整个模型;输入真实带噪指静脉图像生成去噪后的图像。本发明首先利用基于指静脉噪声特性构造的训练集提升去噪模型的泛化性。其次在损失函数中加入纹理损失项,解决原损失函数对于纹理模糊图像约束效果不佳的问题,并且生成器网络采用维度保持结构,解决使用反卷积带来的细节损失问题。较传统的去噪算法和经典的CGAN去噪模型,本发明的去噪模型对静脉信息保留的程度更好,去除噪声的同时更有效地恢复带噪图像的静脉信息,进一步提升了指静脉识别技术在噪声环境下的应用性能。
-
-
-
-
-
-
-
-
-