基于场景三维点云的视觉定位方法及装置

    公开(公告)号:CN104700402B

    公开(公告)日:2018-09-14

    申请号:CN201510065371.2

    申请日:2015-02-06

    Applicant: 北京大学

    Abstract: 本发明公开了一种基于场景三维点云的视觉定位方法及装置,方法包括:将场景点云划分为多个不相交的子集;根据待查询图像的全局特征描述子、每个子集的全局特征描述子,将所有子集进行优先级排序,获得子集队列;选择子集队列中的第一个子集,查找第一个子集中的各场景点与待查询图像的局部特征的匹配关系,并确定查找到的匹配关系是否满足结束条件,如果满足,则结束;否则选择子集队列中的第二个子集,查找第一个子集和第二个子集中各场景点与待查询图像的局部特征的匹配关系,并确定查找到的匹配关系是否满足结束条件,如果满足,则结束;根据查找到的匹配关系估计拍摄待查询图像相机的位置和方向。上述方法能够提高查找匹配关系的效率。

    一种基于二值码字典树的搜索方法

    公开(公告)号:CN106980656B

    公开(公告)日:2018-07-10

    申请号:CN201710142528.6

    申请日:2017-03-10

    Applicant: 北京大学

    Abstract: 本发明公开一种基于二值码字典树的搜索方法,包括:获取数据库中每一图像的二值码,将每个二值码划分为m段子串;针对数据库中所有图像的第j段子串,建立该第j段子串的一个二值码字典树;所述二值码字典树的数量为m个;每一二值码字典树包括:内部节点和叶子节点;获取待查询图像的二值码以及该二值码的m段子串;针对待查询图像二值码的第j段子串,在数据库中所有图像的第j段子串对应的二值码字典树中查找汉明距离不超过的二值码;遍历待查询图像二值码的所有子串,获得每一子串的查询结果;j小于等于m。本发明的方法在汉明空间精确近邻搜索时可以降低查找数量,提高搜索速度。

    全局特征描述子的聚合方法

    公开(公告)号:CN104615613B

    公开(公告)日:2018-04-17

    申请号:CN201410183575.1

    申请日:2014-04-30

    Applicant: 北京大学

    Abstract: 本发明提供一种全局特征描述子的聚合方法,包括:获取待处理图像的局部特征描述子,根据所述局部特征描述子的重要性,将所有的局部特征描述子进行排序,获得排序后的局部特征描述子;根据截断阈值,从所述排序后的局部特征描述子中选择用于聚合全局特征描述子的若干个局部特征描述子;采用高斯混合模型对所述若干个局部特征描述子进行聚合,获得待处理图像的全局特征描述子;其中,所述截断阈值为训练预设的图像数据集中每类图像的检索结果得到的。上述方法可降低现有技术中全局特征描述子聚合过程中的时间复杂度,提高全局特征描述子的鉴别力和鲁棒性。

    一种目标检测性能优化的方法

    公开(公告)号:CN106934346A

    公开(公告)日:2017-07-07

    申请号:CN201710060366.1

    申请日:2017-01-24

    Applicant: 北京大学

    CPC classification number: G06K9/00664 G06K9/6273 G06N3/0454 G06N3/084

    Abstract: 本发明公开一种目标检测性能优化的方法,所述方法包括:在检测模型训练过程中,使用度量学习来调整样本在特征空间的分布,用以产生更有区分度的特征;度量学习对应的深度神经网络在迭代训练中,每一次迭代使用的候选框为通过联合交叠IoU信息确定的具有相同目标对象距离满足一定约束条件,不同目标距离满足一定约束条件的位置关系的候选框,以及;查看每一轮迭代训练产生的候选框目标的特征是否满足相似度约束条件;若满足,则检测模型在本次迭代不产生损失,不需要反向传播网络中各个层对应的输出误差;在测试时,将待检测图片和图片的候选框集合输入到训练后的检测模型中,获得该检测模型输出的目标对象坐标和类别信息。本发明的方法可以提高检测能力,优化检测性能。

    基于深度度量学习的目标精确检索方法

    公开(公告)号:CN106897390A

    公开(公告)日:2017-06-27

    申请号:CN201710060334.1

    申请日:2017-01-24

    Applicant: 北京大学

    Abstract: 本发明公开一种基于深度度量学习的目标精确检索方法,方法包括:深度神经网络结构的迭代训练中,对提取的同类目标对象的多张图片的特征进行处理过程中,使得相同类别的目标对象相互靠近,不同类别的目标对象相互远离,具有不同类别标签的目标对象的特征距离大于预设距离,且属于同一类别的个体的特征分布中,具有相似属性的类内个体之间距离相互靠近,具有不同属性的类内个体之间大于预设距离,以获得训练后的深度神经网络模型;采用训练后的深度神经网络模型对待查询图片与预设的参考图片分别提取各自的特征,并获取查询图片与参考图片之间特征的欧式距离,对该距离进行从小到大的排序,获得精确检索的目标。本实施例的方法解决了垂直领域的精确检索问题。

    一种局部视觉特征选择方法及装置

    公开(公告)号:CN106326395A

    公开(公告)日:2017-01-11

    申请号:CN201610687614.0

    申请日:2016-08-18

    Applicant: 北京大学

    CPC classification number: G06F16/5838 G06K9/4671 G06K9/6201

    Abstract: 本发明提供了一种局部视觉特征选择方法及装置,所述方法包括:检测获取目标图像中的多个局部视觉特征,并获得每个局部视觉特征的自有属性;获得部分或全部所述局部视觉特征的深度属性;根据所述每个局部视觉特征的自有属性,以及部分或全部局部视觉特征的深度属性,采用预先建立的特征选择模型获得所述每个局部视觉特征位于查询目标中的可能性数值;按照所述可能性数值从高到低的顺序选择预设数量的局部视觉特征作为局部视觉特征子集。本发明使得在局部视觉特征子集内特征数目较少的配置下,仍然能够使得选择出的局部视觉特征尽可能多地包含位于查询目标中的局部视觉特征,在保持视觉特征描述子紧凑表达的前提下保证较为可靠的检索结果。

    图像搜索方法及装置、图像搜索系统

    公开(公告)号:CN105989001A

    公开(公告)日:2016-10-05

    申请号:CN201510041221.8

    申请日:2015-01-27

    Applicant: 北京大学

    Abstract: 本发明公开了一种图像搜索方法及装置、图像搜索系统,所述方法包括:获取待查询图像的视觉单词;根据所述视觉单词,在预设索引表中获取包括二值码的第一集合;获取所述待查询图像的第一二值码;获取所述第一二值码与所述第一集合中每一二值码的第一距离;选择符合第一预设范围的第一距离,将符合第一预设范围的第一距离对应的二值码组成第二集合;获取所述第二集合中所有二值码所属的图像,并采用所述第二集合中所有二值码对该些图像进行评分,在所有评分结果中选取符合第二预设范围的评分结果,将选取得评分结果对应的图像作为与所述待查询图像相似的图像。上述方法能够提高图像搜索的检索速度,提高检索效率,同时提高图像搜索的检索精度。

    车型识别方法及装置
    68.
    发明公开

    公开(公告)号:CN105320923A

    公开(公告)日:2016-02-10

    申请号:CN201410381923.6

    申请日:2014-08-05

    Applicant: 北京大学

    Abstract: 本发明提供一种车型识别方法及装置,其中,所述方法包括:提取待查询图像中待查询车辆对应的第一子图像;获取所述第一子图像与预先建立的数据库中每一种车型的视觉特征相似度;确定所述视觉特征相似度有大于预设第一阈值的视觉特征相似度,将大于预设第一阈值的视觉特征相似度中的最大值对应的车型作为输出的识别结果;其中,所述数据库包括:多种车型数据库,每一车型数据库包括:该车型的多个样例图像的集合;所述车型的样例图像包括:不同光照条件下的车辆图像、不同拍摄角度的车辆图像和不同场景的车辆图像。上述方法可解决因车牌识别精度限制或套牌、无牌、牌照有损而不能识别车辆的问题,同时提高车辆识别的准确率。

    跨区域相似车辆检索方法及装置

    公开(公告)号:CN105320704A

    公开(公告)日:2016-02-10

    申请号:CN201410381661.3

    申请日:2014-08-05

    Applicant: 北京大学

    Abstract: 本发明提供一种跨区域相似车辆检索方法及装置,该方法包括:根据包括车辆的待查询图像及其所属第一区域,确定第一区域内待查询图像车型信息;确定目标数据库所有图像所属第二区域,若第二与第一区域不同,确定第二区域车型信息的车型模板库;在车型模板库选不同角度和场景、符合目标数据库时间信息、光照条件的多个样例图像组成第二区域查询图像集合;获取查询图像集合每一个样例图像与目标数据库所有图像的检索结果;根据检索结果,确定目标数据库与待查询图像车辆的相似车辆;车型模板库包括:多个不同光照条件下、不同拍摄角度和不同场景车辆样例图像。上述方法能解决真实场景下由不同区域监控点视觉模型差异性带来的车辆检索性能下降的问题。

    局部兴趣点选取的方法及设备

    公开(公告)号:CN103744974A

    公开(公告)日:2014-04-23

    申请号:CN201410012810.9

    申请日:2014-01-10

    Applicant: 北京大学

    CPC classification number: G06F17/30256

    Abstract: 本发明提供一种局部兴趣点选取的方法及设备,其中,获取待检测图像所有的局部兴趣点以及每一局部兴趣点的属性;根据属性的重要性获取每一局部兴趣点的重要性;根据局部兴趣点的重要性,采用预设的选取规则选取待检测图像的至少一个局部兴趣点。其中,属性的重要性为通过训练预设的多个图像中每一图像的每一局部兴趣点的属性得到;预设的选取规则为所述局部兴趣点的重要性大于设定阈值,局部兴趣点的数量满足设定范围。上述方法选取的局部兴趣点能够反映图像的特征,且能够提高图像检索和图像匹配的准确率,同时可利用选取的局部兴趣点对应的局部特征描述子进一步聚合成全局特征描述子,从而提高全局特征描述子在图像检索和匹配中的准确率。

Patent Agency Ranking