-
公开(公告)号:CN119131345A
公开(公告)日:2024-12-13
申请号:CN202411130758.7
申请日:2024-08-16
Applicant: 桂林理工大学
IPC: G06V10/25 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多层次特征感知的伪装目标跟踪方法,主要针对提高在复杂环境中伪装目标的跟踪精度。该方法设计了一种多层次特征感知编码器,基于改进的ViT架构,集成了早期候选淘汰机制,以优化特征提取过程。多层次特征感知模块,有效捕捉并融合不同尺度和分辨率下的伪装目标特征,实现对目标的精确感知。利用特征融合技术和非线性激活函数,此模块能够同时处理低级的细节特征和高级的抽象特征,显著增强了特征的表达能力。本发明的方法特别适用于处理伪装目标与背景高度相似的跟踪场景,提升了目标跟踪的准确性和鲁棒性。该技术在军事侦察、野生动物监测等领域具有重要的应用价值,并展现出广阔的应用前景。
-
公开(公告)号:CN116820131A
公开(公告)日:2023-09-29
申请号:CN202310818688.3
申请日:2023-07-05
Applicant: 桂林理工大学
IPC: G05D1/10 , G06T7/246 , G06V20/17 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08 , G06N3/045
Abstract: 本发明公开了基于目标感知的无人机跟踪方法,涉及无人机跟踪技术领域。采用的跟踪框架是一个单流的跟踪框架,包含主干网络和预测头两部分。主干网络使用DeiT‑Tiny,是基于ViT的,通过模板图像与其特征之间的互信息极大化操作实现目标感知。预测头部有三个分支,分别用于预测分类得分、预测采样量化误差以及预测归一化边界框大小,每个分支由四个堆叠在一起的卷积‑批量归一化‑ReLU组成。使用现有的目标跟踪数据集进行训练,获得无人机跟踪模型,然后将训练好的框架部署到无人机平台用于目标踀。本发明通过设计和训练基于目标感知的无人机跟踪模型,可以实现对强烈阳光下的目标、具有快速变换视角的目标以及远距离小目标的精确、高效、实时跟踪。
-
公开(公告)号:CN118366063A
公开(公告)日:2024-07-19
申请号:CN202410445965.5
申请日:2024-04-15
Applicant: 桂林理工大学
IPC: G06V20/17 , G06V10/764 , G06V10/82 , G06V10/32 , G06N3/0455 , G06N3/09
Abstract: 本发明公开了一种基于学习运动模糊鲁棒ViT无人机跟踪方法,具体涉及无人机跟踪技术领域。该框架由主干网络和预测头两个部分组成。主干网络采用DeiT‑Tiny的轻量级网络,通过最小化原始模板的特征表示与经过运动模糊处理的模糊模板之间的均方误差来增强目标特征表示相对于运动模糊的不变性,从而使得ViT能够学习到运动模糊鲁棒的特征表示。预测头部包括三个分支,分别用于预测分类得分、预测采样量化误差和预测归一化边界框大小。在当前主流的目标跟踪数据集上进行训练,得到了无人机跟踪模型,然后在现有的具有挑战性的无人机测试基准上进行测试。实验结果表明本发明所提出的跟踪算法能够有效地适应无人机需要跟踪快速移动目标所引起的运动模糊场景。
-
-