-
公开(公告)号:CN113807417A
公开(公告)日:2021-12-17
申请号:CN202111008702.0
申请日:2021-08-31
Applicant: 中国人民解放军战略支援部队信息工程大学 , 中国人民解放军61363部队
Abstract: 本发明属于密集匹配技术领域,特别涉及一种基于深度学习视野自选择网络的密集匹配方法及系统,构建深度学习视野自选择网络,包含多层级特征提取模块,匹配代价构建模块,多层级支路视差计算模块,上采样模块,单支路视差计算模块,支路选择权重计算模块,及输出模块;收集场景样本数据,划分为训练样本和测试样本,并分别用于对构建的网络进行训练和测试优化;针对目标场景数据,利用测试优化后的深度学习视野自选择网络选取最佳视野来实现目标场景数据的密集匹配。本发明在模型网络中采用多支路视差计算方式并基于单峰性构建的偏移损失为依据来实现最佳视野选择,能够确保视差不连续边缘匹配效果,提升场景数据匹配精度,具有较好应用前景。
-
公开(公告)号:CN109934844A
公开(公告)日:2019-06-25
申请号:CN201910082117.1
申请日:2019-01-28
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明提供一种融合地理空间信息的多目标跟踪方法及系统,该跟踪方法包括以下步骤:获取拍摄监控视频数据相机的内参矩阵和外参矩阵,根据相机的内参矩阵和外参矩阵建立图像空间与地理空间的映射模型;获取相机的监控视频数据,对监控视频数据进行目标检测获取前景目标,并对前景目标进行跟踪,得到前景目标的跟踪轨迹;利用所述映射模型将得到的前景目标和前景目标的跟踪轨迹转换到地理空间,并将转换后的前景目标和前景目标跟踪轨迹与真实地图融合,实现前景目标跟踪在真实地图的可视化表达。本发明提供的技术方案能够得到前景目标跟踪在真实地图中可视化表达,解决多目标跟踪时由于没有与实际地理空间结合而造成跟踪结果可视效果差的问题。
-
-