-
公开(公告)号:CN110704666B
公开(公告)日:2022-06-03
申请号:CN201910818526.3
申请日:2019-08-30
Applicant: 北京大学
IPC: G06F16/583 , G06V10/774 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及计算机视觉领域,特别涉及一种提升跨视角车辆精确检索的方法及系统。包括将某一视角图片输入训练好的对抗网络生成器的该视角的图片输入端,生成另一视角图片;将原视角图片和生成的另一视角图片输入到训练好的度量网络中,获得原视角图片的特征和另一视角的图片的特征,将原视角图片的特征和另一视角的图片的特征拼接为级联特征,计算级联特征和数据库中参考车辆图片的特征距离,排列展示距离最近的若干查询目标。本发明提出了一个特征距离对抗网络(FDA‑Net),在度量空间设计了一种新的特征距离对抗方案。
-
公开(公告)号:CN110704665A
公开(公告)日:2020-01-17
申请号:CN201910818508.5
申请日:2019-08-30
Applicant: 北京大学
IPC: G06F16/583 , G06F16/532 , G06N3/04 , G06N3/08
Abstract: 本发明涉及计算机视觉领域,特别涉及一种基于视觉注意力机制的图像特征表达方法及系统。包括将图片输入训练好的深度网络模型对图片进行特征提取,得到该图片的注意力特征值,计算图片的特征值与目标图片特征值的距离,选择距离最近的若干目标图片展示。本发明利用多尺度注意力网络实现特征提取、距离度量一体化的目标检索检索框架,与传统算法相比,处理速度和准确率均得到较好提升。
-
公开(公告)号:CN110704666A
公开(公告)日:2020-01-17
申请号:CN201910818526.3
申请日:2019-08-30
Applicant: 北京大学
IPC: G06F16/583 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明涉及计算机视觉领域,特别涉及一种提升跨视角车辆精确检索的方法及系统。包括将某一视角图片输入训练好的对抗网络生成器的该视角的图片输入端,生成另一视角图片;将原视角图片和生成的另一视角图片输入到训练好的度量网络中,获得原视角图片的特征和另一视角的图片的特征,将原视角图片的特征和另一视角的图片的特征拼接为级联特征,计算级联特征和数据库中参考车辆图片的特征距离,排列展示距离最近的若干查询目标。本发明提出了一个特征距离对抗网络(FDA-Net),在度量空间设计了一种新的特征距离对抗方案。
-
公开(公告)号:CN110674692A
公开(公告)日:2020-01-10
申请号:CN201910785403.4
申请日:2019-08-23
Applicant: 北京大学
Abstract: 本发明公开了一种基于难样本生成的目标精确检索方法及系统,所述方法包括如下步骤:深度对抗网络训练步骤,所述训练步骤包括一个样本的图像数据通过深度对抗网络的生成器生成一个难样本,使得该难样本在高维空间中与输入的图像保持一定的距离间隔;其中,所述生成的难样本用于促进所述深度对抗网络中的度量判别器的训练,所述度量判别器用于提取图像的特征;计算和排序步骤,在欧式空间计算多张图片的欧氏距离,通过排序实现目标精确检索。本发明利用度量对抗学习实现在深度对抗网络中,进行难样本的生成,难样本的生成反过来又能促进度量判别器具有区分力的特征,提升特征的鲁棒性和辨别力,从而提升目标检索的性能。
-
公开(公告)号:CN110428051A
公开(公告)日:2019-11-08
申请号:CN201910544437.4
申请日:2019-06-21
Applicant: 北京大学
IPC: G06N3/08
Abstract: 本申请公开了一种复用深度神经网络模型训练模型的方法和系统。获取在其他数据集下训练好的深度神经网络模型作为复用模型;获取复用模型在给定任务数据集下的不同表层的信息特征并进行特征变换;获取待训练的深度神经网络模型在给定任务数据集下,针对数据集提取的信息特征,使用从复用模型提取的变换后的信息特征进行权重与尺度规约,并用于复用损失和待训练损失进行协同训练。本发明能够同时复用多个模型,且根据总损失使用反向传播训练和更新待训练模型,能够在数据集有无标签混合场景下以及在不同任务训练好的模型场景下,对模型进行较好的复用,提升复用模型的利用率以及模型复用的性能。
-
公开(公告)号:CN106934346B
公开(公告)日:2019-03-15
申请号:CN201710060366.1
申请日:2017-01-24
Applicant: 北京大学
Abstract: 本发明公开一种目标检测性能优化的方法,所述方法包括:在检测模型训练过程中,使用度量学习来调整样本在特征空间的分布,用以产生更有区分度的特征;度量学习对应的深度神经网络在迭代训练中,每一次迭代使用的候选框为通过联合交叠IoU信息确定的具有相同目标对象距离满足一定约束条件,不同目标距离满足一定约束条件的位置关系的候选框,以及;查看每一轮迭代训练产生的候选框目标的特征是否满足相似度约束条件;若满足,则检测模型在本次迭代不产生损失,不需要反向传播网络中各个层对应的输出误差;在测试时,将待检测图片和图片的候选框集合输入到训练后的检测模型中,获得该检测模型输出的目标对象坐标和类别信息。本发明的方法可以提高检测能力,优化检测性能。
-
公开(公告)号:CN106934346A
公开(公告)日:2017-07-07
申请号:CN201710060366.1
申请日:2017-01-24
Applicant: 北京大学
CPC classification number: G06K9/00664 , G06K9/6273 , G06N3/0454 , G06N3/084
Abstract: 本发明公开一种目标检测性能优化的方法,所述方法包括:在检测模型训练过程中,使用度量学习来调整样本在特征空间的分布,用以产生更有区分度的特征;度量学习对应的深度神经网络在迭代训练中,每一次迭代使用的候选框为通过联合交叠IoU信息确定的具有相同目标对象距离满足一定约束条件,不同目标距离满足一定约束条件的位置关系的候选框,以及;查看每一轮迭代训练产生的候选框目标的特征是否满足相似度约束条件;若满足,则检测模型在本次迭代不产生损失,不需要反向传播网络中各个层对应的输出误差;在测试时,将待检测图片和图片的候选框集合输入到训练后的检测模型中,获得该检测模型输出的目标对象坐标和类别信息。本发明的方法可以提高检测能力,优化检测性能。
-
公开(公告)号:CN106897390A
公开(公告)日:2017-06-27
申请号:CN201710060334.1
申请日:2017-01-24
Applicant: 北京大学
Abstract: 本发明公开一种基于深度度量学习的目标精确检索方法,方法包括:深度神经网络结构的迭代训练中,对提取的同类目标对象的多张图片的特征进行处理过程中,使得相同类别的目标对象相互靠近,不同类别的目标对象相互远离,具有不同类别标签的目标对象的特征距离大于预设距离,且属于同一类别的个体的特征分布中,具有相似属性的类内个体之间距离相互靠近,具有不同属性的类内个体之间大于预设距离,以获得训练后的深度神经网络模型;采用训练后的深度神经网络模型对待查询图片与预设的参考图片分别提取各自的特征,并获取查询图片与参考图片之间特征的欧式距离,对该距离进行从小到大的排序,获得精确检索的目标。本实施例的方法解决了垂直领域的精确检索问题。
-
公开(公告)号:CN110647917B
公开(公告)日:2022-06-03
申请号:CN201910785418.0
申请日:2019-08-23
Applicant: 北京大学
Abstract: 本申请公开了一种模型复用方法与系统,包括:将数据集中的有标签数据输入至待训练模型,基于目标损失函数,得到目标损失;将通过数据集中的多个数据得到的多个数据组合输入至待训练模型,基于模型复用损失函数,得到复用损失;根据目标损失和复用损失,更新待训练模型;重复上述步骤,直到重复次数达到阈值次数,得到训练好的待训练模型。通过将数据集中的有标签数据输入至待训练模型,得到目标损失,将通过数据集中的多个数据得到的多个数据组合输入至待训练模型,得到复用损失,使用少量的有标签数据得到的目标损失和包括大量无标签数据的所有数据得到的复用损失共同更新待训练模型,能够有效利用大量无标签数据。
-
公开(公告)号:CN107846576B
公开(公告)日:2019-12-10
申请号:CN201710944751.2
申请日:2017-09-30
Applicant: 北京大学
IPC: H04N7/18 , H04N21/2343 , H04N21/4402 , H04N21/643
Abstract: 本发明公开了用于视觉特征数据编解码的方法及系统。所述方法包括:编码器接收至少一种智能前端产生的至少一种第一协议格式视觉特征数据和用于唯一地标识对应至少一种第一协议格式的至少一个证书标识,根据至少一个证书标识将至少一种智能前端产生的至少一种第一协议格式视觉特征数据转换为同一种第二协议格式视觉特征数据;解码器接收第二协议格式视觉特征数据,根据第二协议格式解析得到至少一种智能前端产生的、至少一种第一协议格式视觉特征数据所包含的至少一种原始视觉特征数据。至少避免了在服务器存储用于说明不同视觉特征数据形式的不同规范,仅仅需要在服务器存储一种协议格式的规范即可。而且,也避免了后端的规范更新操作。
-
-
-
-
-
-
-
-
-