一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法

    公开(公告)号:CN112816474B

    公开(公告)日:2022-02-01

    申请号:CN202110017726.6

    申请日:2021-01-07

    Applicant: 武汉大学

    Abstract: 本发明涉及一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法。本发明设计了基于目标感知的深度孪生网络高光谱目标跟踪框架,相比于现有高光谱目标跟踪模型,本发明提升了算法处理速度以及精度。本发明设计了高光谱目标感知模型用以提取高光谱目标的语义特征,增加了网络对高光谱视频目标的表征能力。设计了自适应边界框预测模块,可以直接预测出目标的边界框。本发明可以解决用于深度学习模型训练的高光谱训练样本少的问题,相比于现有高光谱目标跟踪模型,本发明提升了算法处理速度以及精度。

    一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法

    公开(公告)号:CN112816474A

    公开(公告)日:2021-05-18

    申请号:CN202110017726.6

    申请日:2021-01-07

    Applicant: 武汉大学

    Abstract: 本发明涉及一种基于目标感知的深度孪生网络高光谱视频目标跟踪方法。本发明设计了基于目标感知的深度孪生网络高光谱目标跟踪框架,相比于现有高光谱目标跟踪模型,本发明提升了算法处理速度以及精度。本发明设计了高光谱目标感知模型用以提取高光谱目标的语义特征,增加了网络对高光谱视频目标的表征能力。设计了自适应边界框预测模块,可以直接预测出目标的边界框。本发明可以解决用于深度学习模型训练的高光谱训练样本少的问题,相比于现有高光谱目标跟踪模型,本发明提升了算法处理速度以及精度。

    一种基于空谱特征融合的无监督高光谱视频目标跟踪方法

    公开(公告)号:CN112766102A

    公开(公告)日:2021-05-07

    申请号:CN202110018918.9

    申请日:2021-01-07

    Applicant: 武汉大学

    Abstract: 本发明涉及一种基于空谱特征融合的无监督高光谱视频目标跟踪方法。本发明结合循环一致性理论方法,设计了基于深度学习的高光谱目标跟踪方法,可无监督的训练高光谱目标跟踪深度学习模型,节约了人工标注的成本。在Siamese跟踪框架的基础上了,设计了RGB分支(空间分支)与高光谱分支;使用RGB视频数据训练空间分支以及将训练好的RGB模型载入网络固定参数同时训练高光谱分支,获得融合后的更具鲁棒性及判别力的特征。最终使用将融合的特征输入到相关滤波器中(DCF),获得跟踪结果。本发明可以解决高光谱视频数据人工标注的问题以及用于深度学习模型训练的高光谱训练样本少的问题,可以有效提升高光谱视频跟踪模型的精度和速度。

    一种基于空谱特征融合的无监督高光谱视频目标跟踪方法

    公开(公告)号:CN112766102B

    公开(公告)日:2024-04-26

    申请号:CN202110018918.9

    申请日:2021-01-07

    Applicant: 武汉大学

    Abstract: 本发明涉及一种基于空谱特征融合的无监督高光谱视频目标跟踪方法。本发明结合循环一致性理论方法,设计了基于深度学习的高光谱目标跟踪方法,可无监督的训练高光谱目标跟踪深度学习模型,节约了人工标注的成本。在Siamese跟踪框架的基础上了,设计了RGB分支(空间分支)与高光谱分支;使用RGB视频数据训练空间分支以及将训练好的RGB模型载入网络固定参数同时训练高光谱分支,获得融合后的更具鲁棒性及判别力的特征。最终使用将融合的特征输入到相关滤波器中(DCF),获得跟踪结果。本发明可以解决高光谱视频数据人工标注的问题以及用于深度学习模型训练的高光谱训练样本少的问题,可以有效提升高光谱视频跟踪模型的精度和速度。

Patent Agency Ranking