-
公开(公告)号:CN119810143A
公开(公告)日:2025-04-11
申请号:CN202411667703.X
申请日:2024-11-21
Applicant: 中国科学院光电技术研究所
IPC: G06T7/246 , G06T7/254 , G06V10/764 , G06V10/80 , G06V10/44 , G06V10/82 , G06V20/17 , G06N3/0455 , G06N3/0464 , G06V10/52 , G06V10/762
Abstract: 本发明公开了一种基于局部与全局注意力建模的目标跟踪方法。包括:搭建主干网络进行初步提取特征,并在基础分类图像集上进行预训练;搭建跟踪颈模块,包括具有全局与局部注意力捕获能力的注意力结构以及用于跟踪精确定位的基于孪生架构的双流单目标跟踪网络;定义优化方法,优化参数与损失函数;将固定的初始帧图像输入主干网络的模板分支,通过跟踪特征主干网络提取出具有不变性的模板特征图;将后续帧按顺序输入主干网络的搜索区域分支,从而实现对给定无人机数据的稳定跟踪与精确定位。本方法在无人机高视角与变换尺度的场景下表现出色,该方法能够以每秒25帧的速度进行实时跟踪,满足了实际应用中的实时性要求。
-
公开(公告)号:CN119625023A
公开(公告)日:2025-03-14
申请号:CN202411704864.1
申请日:2024-11-26
Applicant: 中国科学院光电技术研究所
IPC: G06T7/246 , G06N3/0455 , G06N3/0499 , G06N3/096 , G06N3/045 , G06N3/084
Abstract: 本发明公开了一种基于扩散建模的序列化跟踪方法。首先,构建特征提取网络的主干作为编码器模块。其次,搭建基于扩散模型的解码器模块分为加噪阶段与解噪阶段。定义适当的损失函数与优化方法,以确保网络训练过程中的收敛性。对跟踪网络进行充分的训练,使其能够准确识别并跟踪目标。在时序上将训练与推理过程统一,在训练阶段输入多个模板,一个搜索区域,从而在推理阶段实现多帧的更新。在推理阶段,扩散模型从随机高斯噪音中直接采样,从而生成跟踪框的序列。本方法在相似干扰,目标形变的场景下表现出色,不仅跟踪精度高,而且具备实时的序列生成速度,即该方法能够以每秒51帧的速度进行实时跟踪,满足了实际应用中的实时性要求。
-
公开(公告)号:CN117934548A
公开(公告)日:2024-04-26
申请号:CN202410046328.0
申请日:2024-01-12
Applicant: 中国科学院光电技术研究所
Abstract: 本发明提供一种基于相关滤波Staple算法的抗遮挡目标跟踪算法,涉及目标跟踪领域,以改善在遮挡和复杂背景下的目标跟踪准确性和鲁棒性。通过融合基于HOG特征和颜色直方图的模板,该算法在训练和测试中分阶段执行,更准确地估计目标位置。引入可靠性评估模块,通过最大响应值、平均峰值相关能量等指标全面评估跟踪器性能。针对跟踪失败,采用基于yolov4‑tiny的重检测模块重新找回目标,提高系统容错性。通过动态调整和更新模型,适应不同场景,实现了对可见光目标的快速、准确跟踪。本发明能够提高遮挡情况下和超出视野外等复杂场景下可见光目标的跟踪成功率,实现对可见光目标的快速、准确跟踪。
-
公开(公告)号:CN119693419A
公开(公告)日:2025-03-25
申请号:CN202411768898.7
申请日:2024-12-04
Applicant: 中国科学院光电技术研究所
IPC: G06T7/246 , G06T7/223 , G06V10/764 , G06V10/766 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于局部响应最大似然建模的目标跟踪方法。首先,选取卷积神经网络主干其次,搭建基于局部响应最大似然建模的模块,包括局部最大似然值提取模块、局部最大似然值修正模块以及局部最大似然值选取模块模型,并选择合适的优化方法与损失函数。在第0帧仅使用初始的模版帧输入作为参照,输入到网络的模板分支得到对应的特征图,将后续帧输入到搜索区域分支得到对应的特征图,将其与第0帧的特征图完成相关性度量,从而将最大响应值的位置作为目标所在的位置。本方法在五个公开跟踪数据集上取得了优异的性能表现,在跟踪速度与精度方面做到了平衡,其推理速度能达到每秒81帧,满足了实际场景的实时性要求,超过同类精度的算法。
-
公开(公告)号:CN118115535A
公开(公告)日:2024-05-31
申请号:CN202410124891.5
申请日:2024-01-30
Applicant: 中国科学院光电技术研究所
IPC: G06T7/246 , G06T7/269 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08 , G06V10/774 , G06V10/80 , G06V10/766
Abstract: 本发明公开了一种基于光流背景建模的目标时序跟踪方法,所述方法包括如下步骤:搭建特征提取网络主干,在标准图像集上进行预训练;搭建用于获取运动偏差的全局匹配光流网络以及用于跟踪定位目标的基于Siamese架构的跟踪算法;定义损失函数与优化方法,保证网络训练的收敛性;根据不同要求对光流估计与跟踪网络分别进行训练;输入一对间隔3帧的初始帧图像作为模板输入分支,经过光流网络和跟踪特征主干网络获得保存模板特征图;将后续帧输入光流网络,实现对给定数据进行背景擦除,最后实现对于目标的定位跟踪。所述方法在复杂不稳定场景中表现出色,在跟踪精度上具有较大的竞争力,并且能够以每秒40帧的速度进行实时跟踪。
-
-
-
-