-
公开(公告)号:CN107346414A
公开(公告)日:2017-11-14
申请号:CN201710372619.9
申请日:2017-05-24
Applicant: 北京航空航天大学
CPC classification number: G06K9/00778 , G06K9/00751 , G06K9/6218
Abstract: 本发明提供一种行人属性识别方法和装置。此方法,包括:获取行人视频帧序列中的多帧图像;对多帧图像中的第一帧图像上选取至少一个时空信息点;并获取时空信息点在后续帧图像上的位置;根据多帧图像上出现的时空信息点位置得到时空信息点在所述预设周期内所形成的轨迹线;提取轨迹线在多帧图像中的每帧图像内对应的局部位置处的局部特征,获取每条轨迹线对应的轨迹线特征向量;轨迹线特征向量由所述轨迹线在多帧图像内的各个局部特征串联得到;通过聚类将轨迹线特征向量整合成行人属性特征向量,用于表征目标行人的属性。本发明在图像特征中加入了行人运动信息,因此具备更好的鲁棒性和稳定性,提高了多视角下目标行人再识别的准确度。
-
公开(公告)号:CN107194318A
公开(公告)日:2017-09-22
申请号:CN201710270013.4
申请日:2017-04-24
Applicant: 北京航空航天大学
Abstract: 本发明提供一种目标检测辅助的场景识别方法。本发明目标检测辅助的场景识别方法包括:获取待识别图片,对待识别图片进行采样,得到预设数量和预设大小的样本,根据卷积神经网络模型对各样本进行场景识别,得到待识别图片对应的至少两个场景;获取待识别图片的区域建议和待识别图片对应的第一特征图,根据区域建议和待识别图片,获取待识别图片中的各目标的分类得分;根据待识别图片对应的至少两个场景和各目标的分类得分,得到待识别图片对应的场景。本发明通过Fast R‑CNN网络和区域建议网络结合的目标检测方法辅助场景识别方法,使得场景识别方法的准确率提高。
-
公开(公告)号:CN103235929B
公开(公告)日:2015-04-22
申请号:CN201310076407.8
申请日:2013-03-11
Applicant: 北京航空航天大学
IPC: G06K9/00
Abstract: 本发明提供一种基于手背静脉图像的身份识别方法和装置,该方法通过获取样本的手背静脉图像,获取样本的手背静脉图像的结构特征图对应的邻接矩阵,根据样本的结构特征图对应的邻接矩阵和数据库中各注册样本的结构特征图对应的邻接矩阵,获取样本的结构特征图与各注册样本的结构特征图之间的图距离,在样本的结构特征图与各注册样本的结构特征图之间的图距离中,获取具有最小图距离的注册样本,以确定样本的身份,由于邻接矩阵中包括手背静脉图像结构特征图中各关键点的位置信息以及各关键点之间的距离信息,能够更好的体现手背静脉图像的独特性,因此,能够提高基于手背静脉图像的身份识别的准确率。
-
公开(公告)号:CN101615248B
公开(公告)日:2012-03-21
申请号:CN200910131059.3
申请日:2009-04-21
Abstract: 本发明实施例提供了一种年龄估计方法和设备。该方法包括:处理用户的人脸图像以提取原始特征数据;选择所述原始特征数据的子集作为低维特征数据,其中所述低维特征数据的维度小于所述原始特征数据的维度;对所述低维特征数据进行相关成分分析,以获得训练数据;根据所获得的所述训练数据,训练用于年龄估计的回归分析参数;利用所述回归分析参数来估计所述用户的年龄。通过本发明实施例,可以降低人脸识别系统中的年龄估计的运算量。
-
公开(公告)号:CN102289686A
公开(公告)日:2011-12-21
申请号:CN201110227456.8
申请日:2011-08-09
Applicant: 北京航空航天大学
IPC: G06K9/66
Abstract: 本发明公开一种基于迁移学习的运动目标分类方法,对图像序列进行背景建模、阴影消除和后处理获得有效运动目标区域,通过训练和识别两个过程完成目标分类,包括步骤:对已经标好类别的多类别目标进行特征提取,通过迁移学习方法训练,获得分类模型;对含有运动目标的视频进行特征提取,将提取的特征输入到分类模型,获得运动目标的类别。基于迁移学习的运动目标分类对于克服视角影响,提高多视角条件下的目标分类具有重要意义。用于监控场景中异常检测,对不同类别目标建立规则,提高监控系统安全性能。用于监控场景物体识别,降低识别方法复杂度,提高识别率。用于监控场景语义化理解,识别运动目标的类别,帮助理解场景中发生的行为事件。
-
公开(公告)号:CN102270336A
公开(公告)日:2011-12-07
申请号:CN201110188252.8
申请日:2011-07-06
Applicant: 北京航空航天大学
IPC: G06T1/00
Abstract: 本发明公开了一种基于多块依赖结构的安全脆弱水印方法,包括水印嵌入和篡改定位两部分,水印嵌入具体包括以下几个步骤:步骤1.图像文件的分割,步骤2.水印生成,步骤3.水印嵌入,步骤4.经过上述三个步骤,得到含有水印的图像Y。图像认证具体包括以下几个步骤:步骤1.水印生成,步骤2.水印提取,步骤3.完整性认证。本发明能够准确地验证图像的完整性,并能实现篡改的精确定位。特别,对于传统算法检测不到的孤立块篡改,具有很好的检测及定位效果,而且,本发明对生成水印进行了加密,并且嵌入位置是通过密钥生成的混沌序列进行选取,提高了本发明的安全强度。
-
公开(公告)号:CN101510257B
公开(公告)日:2011-08-10
申请号:CN200910130506.3
申请日:2009-03-31
IPC: G06K9/00
Abstract: 本发明实施例提供一种人脸相似度匹配方法,该方法包括:摄取第一人脸图像;提取所述第一人脸图像和存储的第二人脸图像中多个关键点的特征数据;对于所述第一人脸图像的每一个关键点,在所述第二人脸图像的关键点中搜索相匹配的关键点;计算所述第一人脸图像的关键点与相匹配的所述第二人脸图像的关键点的相似度分数;将所述第一人脸图像的每一个关键点与相匹配的所述第二人脸图像的关键点的相似度分数融合以判断是否匹配。
-
公开(公告)号:CN101430760A
公开(公告)日:2009-05-13
申请号:CN200810226628.8
申请日:2008-11-18
Abstract: 本发明涉及一种基于线性和贝叶斯概率混合模型的人脸超分辨率处理方法,由图像采集和图像预处理、人脸图像主成分提取、特征脸超分辨率处理、主成分超分辨率处理和贝叶斯概率修正组成。该人脸超分辨率处理方法采用一种基于线性模型和贝叶斯概率模型的混合模型,首先提取低分辨率人脸图像的主成分分量,利用线性模型通过训练得到低分辨率特征脸的超分辨率结果实现主成分的初步超分辨结果;然后利用贝叶斯概率模型,通过最大后验概率估计对初步超分辨结果进行修正,有效地加强了超分辨率算法对噪声的鲁棒性,提高了超分辨率结果的清晰度。
-
公开(公告)号:CN101425138A
公开(公告)日:2009-05-06
申请号:CN200810226629.2
申请日:2008-11-18
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种基于人脸超分辨率处理的人脸老化模拟方法,该方法包括:归一化处理人脸图像;训练各年龄段超分辨率方法;降低输入图像分辨率;进行指定年龄段的人脸超分辨率处理,即利用训练好的人脸超分辨率方法,将指定年龄的脸部纹理信息填补进低分辨率输入人脸图像,从而得到人脸老化模拟图像。可以使用的人脸超分辨率方法是基于学习的人脸超分辨率方法,本发明采用本征转换Eigentransformation。本发明可以应用各种基于学习的人脸超分辨方法;本发明利用基于学习的人脸超分辨,可以真实可信的进行人脸老化模拟;且本发明仅考虑人脸纹理变化,计算速度快。
-
公开(公告)号:CN101344922A
公开(公告)日:2009-01-14
申请号:CN200810198047.8
申请日:2008-08-27
IPC: G06K9/00
Abstract: 本发明实施例公开了一种人脸检测方法,包括:基于灰度统计模型对视频当前帧中的人脸进行检测,获得候选人脸区域;基于单通道肤色模型对所述候选人脸区域进行肤色过滤,获得人脸检测结果。同时,本发明实施例还公开了一种人脸检测装置。采用上述技术方案,由于人脸的灰度结构本身存在与其它事物相区分的特殊性,利用灰度信息进行人脸检测较为可靠;采用基于单通道肤色模型对候选人脸区域进行肤色过滤,去掉非肤色区域的假正样本,可排除大部分假正人脸。
-
-
-
-
-
-
-
-
-