图像分类及图像分类模型的训练方法和装置

    公开(公告)号:CN118196476A

    公开(公告)日:2024-06-14

    申请号:CN202410184162.9

    申请日:2024-02-19

    Applicant: 北京大学

    Inventor: 张史梁 轩诗宇

    Abstract: 本发明涉及一种图像分类及图像分类模型的训练方法和装置,获取目标训练样本集,目标训练样本集中包括至少一个图像;针对每个图像,基于所述每个图像和预训练好的骨干模型,确定每个图像的全局特征图、第一块特征图,以及第二块特征图;将目标训练样本集中所有图像对应的全局特征图、第一块特征图以及第二块特征图,输入预设损失函数中,迭代更新得到图像分类模型的参数;预设损失函数的正样本相似度计算项中,针对所述每个图像的数据增强图像,以及目标训练样本集中与所述每个图像同一类别的其他图像,分别设置有与每个图像对应的正样本数量相关的加权项,用于平衡不同图像的正样本数量对梯度的影响,还用于学习不同类别图像之间的相同特征。

    一种车辆再识别方法及系统

    公开(公告)号:CN108171247B

    公开(公告)日:2020-10-27

    申请号:CN201711395760.7

    申请日:2017-12-21

    Applicant: 北京大学

    Abstract: 本发明提供了一种车辆再识别方法及系统,基于车辆部件特征与集合距离度量学习,包括如下步骤:提取车辆的全局特征及局部特征,并基于局部特征的质量确定每个局部特征所占权重;通过集合距离度量学习,完成车辆再识别过程。本发明使用集合距离度量学习加速特征学习的过程。集合距离度量学习首先将同一辆车的不同图片视为一个集合,通过减小每个集合内部的图片距离,同时增大不同集合之间的距离优化特征学习过程。本发明有效降低了训练的计算复杂度,同时可获得更具有判别力的特征,能够更为准确的进行车辆再识别。

    一种行人图像的匹配方法、装置、存储介质及终端

    公开(公告)号:CN111597893A

    公开(公告)日:2020-08-28

    申请号:CN202010291688.9

    申请日:2020-04-14

    Applicant: 北京大学

    Abstract: 本发明公开了一种行人图像的匹配方法、装置、存储介质及终端,所述方法包括:根据预设匹配模型对第一微调边界框中的目标行人和第二微调边界框中的待比对行人进行匹配,得到匹配结果,以便于根据匹配结果进行目标行人的搜索;其中,预设匹配模型用于对第一微调边界框中的目标行人的第一相互可见部分的特征和第二微调边界框中的待比对行人的第二相互可见部分的特征进行匹配。因此,采用本申请实施例,针对目标行人的可见部位特征提取与匹配,不仅能够有效地避免被遮挡,而且由于是部分匹配,避免了图像匹配过程中可能会出现的图像变形现象,实现了图像之间的精准匹配,最终显著提升了行人检测和识别的准确率。

    一种行人再识别方法及系统

    公开(公告)号:CN111597887A

    公开(公告)日:2020-08-28

    申请号:CN202010269718.6

    申请日:2020-04-08

    Applicant: 北京大学

    Inventor: 张史梁 王东凯

    Abstract: 本申请公开了一种行人再识别方法及系统,包括:输入训练集至待训练模型,确定训练集中的每个图像数据的单分类标签和记忆特征;根据单分类标签和记忆特征集合,通过正标签预测,确定多分类标签;根据训练集中的每个图像数据的图像特征和记忆特征集合,确定分类分数;根据多分类标签和分类分数确定多标签分类损失;根据多标签分类损失,更新和训练待训练模型,得到识别模型。通过根据训练集中的每个图像数据的图像特征和记忆特征集合确定分类分数,不受数据集领域影响;根据单分类标签和记忆特征集合,通过正标签预测确定多分类标签,再根据多分类标签和分类分数确定多标签分类损失,更新和训练待训练模型,识别模型的性能高,鲁棒性强,成本低。

    用于基于视频的人再识别的全局局部时间表示方法

    公开(公告)号:CN111563404A

    公开(公告)日:2020-08-21

    申请号:CN201911422601.0

    申请日:2019-12-31

    Applicant: 北京大学

    Abstract: 本发明提出了一种适用于基于视频的行人再识别的全局局部时间表示方法。本申请提出的网络分别由DTP卷积和TSA模型组成。DTP由并行扩展的时间卷积组成,用于模拟相邻帧之间的短期时间线索。TSA利用非连续帧之间的关系来捕获全局时间线索。在五个基准数据集上的实验结果表明,所提出的GLTR方法优于目前最先进的方法。

    一种行人图像的匹配方法、装置、存储介质及终端

    公开(公告)号:CN111597893B

    公开(公告)日:2023-08-04

    申请号:CN202010291688.9

    申请日:2020-04-14

    Applicant: 北京大学

    Abstract: 本发明公开了一种行人图像的匹配方法、装置、存储介质及终端,所述方法包括:根据预设匹配模型对第一微调边界框中的目标行人和第二微调边界框中的待比对行人进行匹配,得到匹配结果,以便于根据匹配结果进行目标行人的搜索;其中,预设匹配模型用于对第一微调边界框中的目标行人的第一相互可见部分的特征和第二微调边界框中的待比对行人的第二相互可见部分的特征进行匹配。因此,采用本申请实施例,针对目标行人的可见部位特征提取与匹配,不仅能够有效地避免被遮挡,而且由于是部分匹配,避免了图像匹配过程中可能会出现的图像变形现象,实现了图像之间的精准匹配,最终显著提升了行人检测和识别的准确率。

    行人身份再识别方法、装置、电子设备及存储介质

    公开(公告)号:CN112861695A

    公开(公告)日:2021-05-28

    申请号:CN202110142947.6

    申请日:2021-02-02

    Applicant: 北京大学

    Inventor: 张史梁 轩诗宇

    Abstract: 本申请公开了一种行人身份再识别方法、装置、电子设备及存储介质。该方法包括:利用特征提取网络提取多个摄像头所采集的所有图像样本的特征;根据特征分别处理同一摄像头所采集的图像样本,获得若干第一伪标签;利用第一伪标签训练多分支卷积神经网络;利用训练后的多分支卷积神经网络处理所有图像样本,获得若干第二伪标签;利用第二伪标签训练特征提取网络;利用训练好的特征提取网络对输入图像进行行人身份再识别。本申请的行人身份再识别方法能够实现更好的相似度计算,提高了伪标签的质量,从而充分利用了训练数据使身份再识别模型得到更好地训练,在无标注信息的情况下提取具有高判别力和高鲁棒性的行人特征,实现行人的准确检索与匹配。

    用于行人再识别的神经网络和基于深度学习的行人再识别算法

    公开(公告)号:CN107729805B

    公开(公告)日:2019-09-13

    申请号:CN201710780179.0

    申请日:2017-09-01

    Applicant: 北京大学

    Abstract: 本发明公开了用于行人再识别的神经网络和基于深度学习的行人再识别算法。该神经网络包括:使用行人的原始全身图像作为第一输入并输出第一识别特征的第一神经网络;使用从行人的原始全身图像提取的人体部位图像的仿射变换图像作为第二输入并输出第二识别特征的第二神经网络,其中,人体部位至少包括头部、躯干和四肢,第一识别特征和第二识别特征组合为总识别特征。具有更加鲁棒的行人特征匹配能力,从而能够提高正确识别率和/或降低误识率。

    一种基于循环生成式对抗网络的行人图像生成方法及系统

    公开(公告)号:CN108256439A

    公开(公告)日:2018-07-06

    申请号:CN201711435515.4

    申请日:2017-12-26

    Applicant: 北京大学

    Abstract: 本发明提供了一种基于循环生成式对抗网络的行人图像生成方法及系统,包括如下步骤:迁移函数学习,生成人物迁移生成式对抗网络;基于所述人物迁移生成式对抗网络,完成所述行人图像中的人物迁移,将一个数据库中的行人图像迁移到另一个数据库中,生成新的行人图像。所述迁移函数包括风格损失和身份损失。与传统方法相比,本发明在众多行人再识别公共数据集上取得了很好的迁移效果,可以在无需额外数据标注的前提下,在目标应用场景中训练鲁棒的行人再识别模型,并获得较高的准确性。

Patent Agency Ranking