-
公开(公告)号:CN105513080B
公开(公告)日:2019-05-03
申请号:CN201510962050.2
申请日:2015-12-21
Applicant: 南京邮电大学
IPC: G06T7/11
Abstract: 本发明公开了一种红外图像中目标显著性评估方法,属于视频图像处理技术领域,该方法可以有效地对红外图像中目标进行显著性评估。本发明采用一种基于超像素的中心环绕特征用于度量图中各个区域的显著性。使用了多层多尺度超像素分割机制对输入红外图像进行多尺度超像素分割,求得多层多尺度的图像分割结果。对于各层分割结果,本发明只合并相邻两个超像素,并与单个超像素组成潜在目标集合。然后使用上述中心环绕特征对所有潜在目标进行度量,最后对得到的显著性分数进行排序。本发明可以快速有效地定位红外图像中的感兴趣目标,在准确性和计算速度上具有较大优势。
-
公开(公告)号:CN107316015A
公开(公告)日:2017-11-03
申请号:CN201710463130.2
申请日:2017-06-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于深度时空特征的高精度面部表情识别方法,该方法首先是设计了一种端到端可训练的多通道深度神经网络模型,该模型在低层利用多个并联的深度神经网络分别提取人脸表情图像的深度时空特征,然后在高层使用全连接层对多通道深度时空特征数据进行融合,最高层采用softmax层进行识别得到表情分类。该模型将图像特征提取和特征融合整合为一个可以进行全局训练的网络,加深了网络规模,提高了识别性能。第二个创新点是本发明使用平均脸来替代中性脸,这种做法解决了测试时表情图像缺少对应的中性脸图像的问题,使得本发明可以满足实际场合的应用。本发明在表情识别领域提供了一种新的思路,具有很高的实用价值和发展前景。
-
公开(公告)号:CN106548131A
公开(公告)日:2017-03-29
申请号:CN201610899506.X
申请日:2016-10-14
Applicant: 南京邮电大学
CPC classification number: G06K9/00362 , G06K9/00711 , G06K9/6212
Abstract: 本发明公开了一种基于行人检测的施工人员安全帽实时检测方法,首先利用大量已标注样本对基于ACF特征提取的Adaboost分类器进行多次迭代训练;然后利用训练好的分类器对视频序列进行行人检测,确定目标的精确位置和数量;接着对检测结果进行轨迹分析,通过轨迹信息判断检测结果是否有误,对检测结果得分不高的情况,做丢弃处理,对得分较高的检测结果进行跟踪,利用检测结果中人体头部在检测结果顶部的特性,锁定安全帽所在部位,通过颜色空间转换,根据分离颜色通道统计像素信息,利用像素占比判断,最终实现安全帽检测。本发明对多种场景具有很好的鲁棒性,同时基于HSV空间的像素点统计检测方法,针对特定颜色的安全帽有很好的效果。
-
公开(公告)号:CN106503718A
公开(公告)日:2017-03-15
申请号:CN201610835140.X
申请日:2016-09-20
Applicant: 南京邮电大学
IPC: G06K9/46
Abstract: 本发明公开了一种基于滤波器组的局部二值模式图像描述方法,包括:将输入的人脸图像进行分块获得若干图像块;对所述每个图像块进行基于滤波器组的卷积滤波,并分别卷积滤波处理后的每个图像块进行LBP编码,获得每个图像块的若干个FBLBP值;对每个图像块所得若干个FBLBP值进行统计,获得每种滤波器模式下的FBLBP直方图特征,并按顺序将滤波器组中所有滤波器模式下的FBLBP直方图特征组合成该图像块的FBLBP直方图特征;以及,依次提取每个图像块的FBLBP直方图特征,并串联起来构成该人脸图像的直方特征向量。本发明将局部图像与滤波器组卷积获得响应代替像素来对图像进行编码,获取图像的多尺度信息,使LBP算子更具有鲁棒性和抗干扰性,可增强LBP描述子对图像的表征能力。
-
公开(公告)号:CN106127185A
公开(公告)日:2016-11-16
申请号:CN201610520935.1
申请日:2016-07-01
Applicant: 南京邮电大学
IPC: G06K9/00
CPC classification number: G06K9/00288
Abstract: 本发明公开了一种非限制环境下基于低秩协同的人脸性别识别方法,属于图像处理技术领域。针对的技术问题是对于自然环境下的人脸图像,传统图像识别方法的识别正确率不高的问题。本发明使用非限制环境下的人脸图像作为输入图像,经过低秩分解处理,将处理过的图像随机划分成训练图像和测试图像。然后使用字典学习算法,从训练图像中得到人脸性别表示的字典,最后通过协同表示进行识别分类。本发明在特征提取阶段前使用低秩分解来对齐人脸图像,提高了识别算法的识别正确率;采用协同表示进行分类,提高了系统的识别率和对遮挡的鲁棒性,在自然环境下的人脸性别识别领域,本发明提出了一种新的有效思路,具有很高的实用价值和发展前景。
-
公开(公告)号:CN119399723A
公开(公告)日:2025-02-07
申请号:CN202411642047.8
申请日:2024-11-18
Applicant: 南京邮电大学
IPC: G06V20/56 , G06V10/82 , G06V10/774 , G06V10/776 , G06N3/08 , G06N3/0985 , G06N3/0455 , G06V10/40 , G06V10/80 , G06N3/084 , G06V10/74
Abstract: 本发明公开一种基于动态线锚的轨道线检测方法,包括:收集包含轨道目标的图像和轨道线实例标注,并进行预处理,获得由原始图像张量和掩膜图像张量组成的数据集;根据获取的数据集,采用基于动态线锚和轨道对比学习的端到端的深度神经网络结构,训练获得轨道线检测模型;将待检测的图像输入到训练完成的轨道线检测模型,输出轨道线检测结果。本发明通过动态线锚和轨道对比学习的结合,有效提取轨道线特征,提高了轨道线检测的准确率,有效的改善了真实环境下面目前对复杂轨道线检测的准确度,更有利于今后自动驾驶领域的发展。
-
公开(公告)号:CN114333002B
公开(公告)日:2024-12-03
申请号:CN202111610586.X
申请日:2021-12-27
Applicant: 南京邮电大学
IPC: G06V40/16 , G06N3/0464 , G06N3/08
Abstract: 本发明是一种基于图深度学习和人脸三维重建的微表情识别方法,包括如下步骤:构建图特征学习模块,进行图特征分析获得一维特征向量;构建光流特征学习模块,通过光流特征提取获得一维特征向量;构建三维细节重建模块,得到一维特征向量;构建多流OGC‑FL网络模型结构,通过多流融合得到微表情识别分类结果。与单一策略相比,本发明多策略生成光流特征可以筛选出对微表情识别任务最为有利的生成策略;本发明的多流OGC‑FL网络模型结构,找到了人脸关键点信息和密集图像信息在识别微表情上的一致性,关键点稀疏空间信息可以通过GFL判断微表情大致的状态,而密集图像信息则凸显了面部细微的肌肉运动,为MER提取更加细节的信息。
-
公开(公告)号:CN114266938B
公开(公告)日:2024-12-03
申请号:CN202111592561.1
申请日:2021-12-23
Applicant: 南京邮电大学
IPC: G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明是一种基于多模态信息和全局注意力机制的场景识别方法,具体包括步骤1:选取多个场景的RGB图像和深度图像,将编码后的深度图像与RGB图像进行配对,划分为训练集和测试集;步骤2:构建双通道深度神经网络模型;步骤3:将步骤1中划分好的训练集送入到步骤2中的双通道深度神经网络中进行训练;步骤4:识别场景图片。本发明有效的利用了RGB图像和深度图像之间的互补性,通过对RGB图像和深度图像进行全局注意力监测,分别获得对应的可学习类别向量,从而进行场景分类,本发明在提高特征提取能力以及保持并行计算特点的同时,还提高了多模态场景识别的识别率。
-
公开(公告)号:CN113989911B
公开(公告)日:2024-11-08
申请号:CN202111483036.6
申请日:2021-12-07
Applicant: 南京邮电大学
Abstract: 一种基于三维人脸特征重建和图深度学习的真实环境面部表情识别方法,通过建立的三维密集人脸重建网络以及端到端的可训练三维人脸特征重建与学习网络模型3DF‑RLN,由单独的2D人脸图像重构得到面部外观和面部几何特征,有效表征了面部表情信息。由面部几何特征得到基于人脸关键点的面部拓扑图,可以反映面部几何特征间的相关性,对面部表情识别及相关研究有重大意义。CNN网络有效提取面部外观特征中包含的表情信息,GCN网络有效提取面部几何特征中包含的信息。由通道注意和softmax构成的融合识别模块有效融合面部外观特征和面部几何特征中包含的互补信息,提高表情识别准确率。总体而言,本方法提高了面部表情识别的准确率,提高真实环境面部表情识别效果。
-
公开(公告)号:CN117671756A
公开(公告)日:2024-03-08
申请号:CN202311372596.3
申请日:2023-10-20
Applicant: 南京邮电大学
Abstract: 本发明提出了一种基于异构多视图特征融合的面部微表情识别方法和系统。该方法包括以下步骤:对输入的微表情序列进行预处理,对起始帧和峰值帧进行三维人脸重建,得到点云数据以及法线贴图数据,对起始帧和峰值帧进行二维运动估计得到光流数据;构建端到端可训练的异构多视图特征融合网络模型;利用前述步骤得到的峰值帧点云数据、法线贴图数据以及光流数据作为输入,用异构的网络提取异构特征,最终采用互注意力机制将异构特征融合以得到该图像的微表情类别。本发明的方法通过异构多视图特征融合网络模型HMF对二维运动数据、三维几何数据以及三维运动数据进行特征提取及融合分类,提高了面部微表情识别的识别率和鲁棒性。
-
-
-
-
-
-
-
-
-