一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法

    公开(公告)号:CN107491761A

    公开(公告)日:2017-12-19

    申请号:CN201710730930.6

    申请日:2017-08-23

    Abstract: 本发明公开了一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法,包括以下步骤:在跟踪的起始帧随机选取若干目标样本和背景样本;对目标样本进行目标样本特征提取,对背景样本进行背景样本特征提取;将提取的目标样本特征聚类成若干个目标模板集合,将提取的背景样本特征聚类成若干个背景模板集合;通过降低同类别样本间距离并增大不同样本间的距离来学习投影矩阵;根据高斯分布对后续帧进行目标候选采集;提取目标候选的特征,并使用投影矩阵将目标模板集合、背景模板集合和目标候选投影到共同的子空间;计算每个目标候选到所有目标模板集合的距离,距离之和作为每个目标候选的得分,最终的跟踪结果为距离最小的前若干个目标候选的平均值。

    一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法

    公开(公告)号:CN107491761B

    公开(公告)日:2020-04-03

    申请号:CN201710730930.6

    申请日:2017-08-23

    Abstract: 本发明公开了一种基于深度学习特征和点到集合距离度量学习的目标跟踪方法,包括以下步骤:在跟踪的起始帧随机选取若干目标样本和背景样本;对目标样本进行目标样本特征提取,对背景样本进行背景样本特征提取;将提取的目标样本特征聚类成若干个目标模板集合,将提取的背景样本特征聚类成若干个背景模板集合;通过降低同类别样本间距离并增大不同样本间的距离来学习投影矩阵;根据高斯分布对后续帧进行目标候选采集;提取目标候选的特征,并使用投影矩阵将目标模板集合、背景模板集合和目标候选投影到共同的子空间;计算每个目标候选到所有目标模板集合的距离,距离之和作为每个目标候选的得分,最终的跟踪结果为距离最小的前若干个目标候选的平均值。

    一种基于视频属性表示学习的目标跟踪方法

    公开(公告)号:CN109711354A

    公开(公告)日:2019-05-03

    申请号:CN201811626841.8

    申请日:2018-12-28

    Abstract: 本发明公开了一种基于视频属性表示学习的目标跟踪方法,包括以下步骤:构建具有多属性分支的深度卷积神经网络模型;将训练数据按照视频属性进行分组;在训练数据中选取目标样本和背景样本;按照两阶段训练策略训练深度卷积神经网络模型;使用训练后的深度卷积神经网络模型对目标进行跟踪。使用不同分支学习不同属性下的表示降低了每个分支的学习难度,使得每个分支所需求的训练数据数量也降低。这些表示被自适应地融合后用于分类,提高了特征表示的判别力,使得本提案的方法可以应对复杂的跟踪场景。两阶段训练策略保证了多视频属性分支卷积神经网络可以达到预期目的。

Patent Agency Ranking