-
公开(公告)号:CN106056628B
公开(公告)日:2019-06-18
申请号:CN201610371378.1
申请日:2016-05-30
Applicant: 中国科学院计算技术研究所
IPC: G06T7/246
Abstract: 本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,涉及模式识别技术领域,该方法包括步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。本发明合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。
-
公开(公告)号:CN106056628A
公开(公告)日:2016-10-26
申请号:CN201610371378.1
申请日:2016-05-30
Applicant: 中国科学院计算技术研究所
IPC: G06T7/20
CPC classification number: G06T7/20 , G06T2207/10016 , G06T2207/20081
Abstract: 本发明提出基于深度卷积神经网络特征融合的目标跟踪方法及系统,涉及模式识别技术领域,该方法包括步骤1,通过深度卷积神经网络,获取视频图像中目标的多种特征,通过滤波器方法计算每种特征的特征置信权重,根据特征置信权重,获取目标当前的跟踪目标位置;步骤2,计算每种特征当前帧的预测精度损失,并根据预测精度损失,对每种特征,建立在△t时间内的稳定性模型,通过稳定性模型计算每个特征在当前帧的稳定性,根据每种特征的稳定性及累积的预测精度损失,更新每种特征的置信权重;步骤3,重复步骤1至步骤2完成所有帧的目标跟踪。本发明合理地融合多种特征的跟踪结果,实现鲁棒的目标跟踪。
-