-
公开(公告)号:CN111008996A
公开(公告)日:2020-04-14
申请号:CN201911250349.X
申请日:2019-12-09
Applicant: 华侨大学 , 泉州市中仿宏业信息科技有限公司
Abstract: 本发明公开一种通过分层特征响应融合的目标跟踪方法,涉及计算机视觉目标跟踪领域;包括:步骤10、对参数进行初始化;步骤20、提取目标图像分层特征进行响应值融合得到位置模型;步骤30、训练尺度相关滤波器的最大尺度响应值得到尺度模型;步骤40、当步骤20中所述响应值融合后得到的融合响应值小于等于设定阈值,对目标图像进行重检测,得到一候选区域,并返回步骤20;当所述融合响应值大于设定阈值时,更新位置模型以及尺度模型,然后进入步骤50;步骤50、将更新后的位置模型与尺度模型用于下一帧跟踪,返回步骤40。本发明提供的方法,改变了分层特征自适应融合和模型更新的条件,提高了相关滤波器跟踪的精确度,使跟踪效果更为理想。
-
公开(公告)号:CN109325966B
公开(公告)日:2022-06-03
申请号:CN201811031171.5
申请日:2018-09-05
Applicant: 华侨大学 , 泉州市中仿宏业信息科技有限公司
Abstract: 本发明提供一种通过时空上下文进行视觉跟踪的方法,包括如下步骤:步骤1:初始化参数;步骤2:训练上下文感知滤波器得到位置模型;步骤3:训练尺度相关滤波器的最大尺度响应值得到尺度模型;步骤4:分类器输出响应图;判别相关滤波器生成与响应图峰值对应的峰值旁瓣比;步骤5:对比响应图峰值与峰值旁瓣比,如果响应图峰值大于峰值旁瓣比,则引入在线随机蕨分类器进行重检测;如果响应图峰值小于峰值旁瓣比,则更新步骤2的位置模型和步骤3的尺度模型;如果响应图峰值等于峰值旁瓣比,则继续维持当前视觉跟踪状态;步骤6:将更新好的位置模型与尺度模型作用于下一帧跟踪;返回步骤4。
-
公开(公告)号:CN111008996B
公开(公告)日:2023-04-07
申请号:CN201911250349.X
申请日:2019-12-09
Applicant: 华侨大学 , 泉州市中仿宏业信息科技有限公司
Abstract: 本发明公开一种通过分层特征响应融合的目标跟踪方法,涉及计算机视觉目标跟踪领域;包括:步骤10、对参数进行初始化;步骤20、提取目标图像分层特征进行响应值融合得到位置模型;步骤30、训练尺度相关滤波器的最大尺度响应值得到尺度模型;步骤40、当步骤20中所述响应值融合后得到的融合响应值小于等于设定阈值,对目标图像进行重检测,得到一候选区域,并返回步骤20;当所述融合响应值大于设定阈值时,更新位置模型以及尺度模型,然后进入步骤50;步骤50、将更新后的位置模型与尺度模型用于下一帧跟踪,返回步骤40。本发明提供的方法,改变了分层特征自适应融合和模型更新的条件,提高了相关滤波器跟踪的精确度,使跟踪效果更为理想。
-
公开(公告)号:CN109325966A
公开(公告)日:2019-02-12
申请号:CN201811031171.5
申请日:2018-09-05
Applicant: 华侨大学 , 泉州市中仿宏业信息科技有限公司
Abstract: 本发明提供一种通过时空上下文进行视觉跟踪的方法,包括如下步骤:步骤1:初始化参数;步骤2:训练上下文感知滤波器得到位置模型;步骤3:训练尺度相关滤波器的最大尺度响应值得到尺度模型;步骤4:分类器输出响应图;判别相关滤波器生成与响应图峰值对应的峰值旁瓣比;步骤5:对比响应图峰值与峰值旁瓣比,如果响应图峰值大于峰值旁瓣比,则引入在线随机蕨分类器进行重检测;如果响应图峰值小于峰值旁瓣比,则更新步骤2的位置模型和步骤3的尺度模型;如果响应图峰值等于峰值旁瓣比,则继续维持当前视觉跟踪状态;步骤6:将更新好的位置模型与尺度模型作用于下一帧跟踪;返回步骤4。
-
-
-