-
公开(公告)号:CN116071504B
公开(公告)日:2023-06-09
申请号:CN202310205404.3
申请日:2023-03-06
Applicant: 安徽大学
Abstract: 本发明公开一种面向高分辨率图像的多视图立体重建方法,对参考图像和源图像使用动态特征提取网络计算特征图,将提取到的源视图特征映射到参照平面构建代价体;使用三维卷积神经网络对代价体进行正则化处理,获到概率体,通过偏置回归算法使得深度值更加接近真实值,进而提高深度图的精度。同时使用不确定性距离估计方法,优化深度值估计范围,计算出精确的深度采样范围,进而采用动态范围采样处理,重复上述操作,直到计算出半分辨率深度图,使用深度图优化网络对半分辨率的深度图进行优化,计算出全分辨率的深度图,对全分辨率的深度图进行融合,从而获得高质量的稠密点云模型。本发明能实现快速计算出大规模场景的高质量稠密点云的目标。
-
公开(公告)号:CN116091712B
公开(公告)日:2023-06-27
申请号:CN202310382538.2
申请日:2023-04-12
Applicant: 安徽大学
IPC: G06T17/00 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请属于三维重建技术领域,具体涉及面向计算资源受限设备的多视图立体重建方法与系统,方法包括:输入多视角的图像数据;根据输入的所述图像数据,计算相机的外部参数矩阵、内部参数矩阵和深度值范围,获取新的图像数据;构建端到端的多视图立体重建网络模型;将所述新的图像数据输入所述多视图立体构建网络模型进行训练,计算获得推理模型参数;将预训练的神经网络模型作为输入图像样本生成并融合全分辨率深度图,获得三维点云模型。本申请构建多视图立体重建网络模型,解决现有多视图立体方法对高性能计算资源的过度依赖问题,使得在计算资源受限的设备上实现基于深度学习的多视图立体重建过程。
-
公开(公告)号:CN116091712A
公开(公告)日:2023-05-09
申请号:CN202310382538.2
申请日:2023-04-12
Applicant: 安徽大学
IPC: G06T17/00 , G06V10/74 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本申请属于三维重建技术领域,具体涉及面向计算资源受限设备的多视图立体重建方法与系统,方法包括:输入多视角的图像数据;根据输入的所述图像数据,计算相机的外部参数矩阵、内部参数矩阵和深度值范围,获取新的图像数据;构建端到端的多视图立体重建网络模型;将所述新的图像数据输入所述多视图立体构建网络模型进行训练,计算获得推理模型参数;将预训练的神经网络模型作为输入图像样本生成并融合全分辨率深度图,获得三维点云模型。本申请构建多视图立体重建网络模型,解决现有多视图立体方法对高性能计算资源的过度依赖问题,使得在计算资源受限的设备上实现基于深度学习的多视图立体重建过程。
-
公开(公告)号:CN114882258A
公开(公告)日:2022-08-09
申请号:CN202210505619.2
申请日:2022-05-10
Applicant: 安徽大学
Abstract: 本发明公开一种基于场景显著性区域一致性的航拍图像匹配方法,包括计算查询航拍图像和参考航拍图像中的特征点和特征描述子,计算查询航拍图像中的显著性目标区域,从参考航拍图像中为查询航拍图像的显著性区域寻找对应匹配区域,计算查询航拍图像中显著性区域与对应的匹配区域之间的特征匹配结果,计算查询航拍图像中显著性区域以外的区域与参考航拍图像中非显著性区域之间的特征匹配结果,合并两个匹配结果获得两幅航拍图像之间的特征匹配结果。本发明利用查询航拍图像中的显著性目标区域、将高分辨率的航拍图像匹配问题转化为显著性区域和非显著性区域的特征匹配问题,既避免非重叠区域的特征匹配所带来的时间开销,又提高图像匹配的精度。
-
公开(公告)号:CN116805355A
公开(公告)日:2023-09-26
申请号:CN202311079988.0
申请日:2023-08-25
Applicant: 安徽大学
Abstract: 本发明公开一种抗场景遮挡的多视图立体重建方法,首先根据输入的图像数据计算场景的稀疏点云模型和摄像机参数;其次,根据稀疏点云模型和摄像机参数,从输入的图像数据中计算场景的半稠密点云模型;再次,根据半稠密的点云模型,计算图像的深度图;第四,计算输入图像的轮廓信息;第五,使用图像的轮廓信息对深度图进行增强处理,获得稠密的深度图;最后,使用稠密的深度图对半稠密的点云模型进行增强处理,即可获得高质量的稠密点云模型。本发明充分利用了图形的轮廓信息,提高遮挡场景下的多视图立体重建的质量,为基于多视图立体重建技术的相关应用领域(例如:虚拟现实、增强现实、数字孪生、元宇宙、农业与工业仿真、数据可视化、自动驾驶、场景的数字化、文化遗产的数字化保护等)奠定坚实的技术基础。
-
公开(公告)号:CN116071504A
公开(公告)日:2023-05-05
申请号:CN202310205404.3
申请日:2023-03-06
Applicant: 安徽大学
Abstract: 本发明公开一种面向高分辨率图像的多视图立体重建方法,对参考图像和源图像使用动态特征提取网络计算特征图,将提取到的源视图特征映射到参照平面构建代价体;使用三维卷积神经网络对代价体进行正则化处理,获到概率体,通过偏置回归算法使得深度值更加接近真实值,进而提高深度图的精度。同时使用不确定性距离估计方法,优化深度值估计范围,计算出精确的深度采样范围,进而采用动态范围采样处理,重复上述操作,直到计算出半分辨率深度图,使用深度图优化网络对半分辨率的深度图进行优化,计算出全分辨率的深度图,对全分辨率的深度图进行融合,从而获得高质量的稠密点云模型。本发明能实现快速计算出大规模场景的高质量稠密点云的目标。
-
-
公开(公告)号:CN116109852B
公开(公告)日:2023-06-20
申请号:CN202310390886.4
申请日:2023-04-13
Applicant: 安徽大学 , 国网安徽省电力有限公司电力科学研究院
Abstract: 本发明公开一种快速及高精度的特征匹配错误消除方法,输入初始特征匹配点,提取特征匹配点坐标,计算正弦值和欧氏距离,对新坐标进行网格划分、统计网格中特征匹配点的数量并获得角度集合;通过自适应参数估计,计算出网格中特征匹配点数量的拐点,获得纠错阈值,将网格中特征匹配点数量小于阈值的特征匹配点剔除,从而获得精确的特征匹配点。本发明能够快速地消除初始特征匹配结果中的错误特征匹配点,提高图像匹配的精度,提升基于图像匹配的计算机视觉应用系统的性能,如基于图像的三维重建、图像拼接、图像检索、视觉定位与导航、虚拟现实和增强现实。
-
公开(公告)号:CN116109852A
公开(公告)日:2023-05-12
申请号:CN202310390886.4
申请日:2023-04-13
Applicant: 安徽大学 , 国网安徽省电力有限公司电力科学研究院
Abstract: 本发明公开一种快速及高精度的特征匹配错误消除方法,输入初始特征匹配点,提取特征匹配点坐标,计算正弦值和欧氏距离,对新坐标进行网格划分、统计网格中特征匹配点的数量并获得角度集合;通过自适应参数估计,计算出网格中特征匹配点数量的拐点,获得纠错阈值,将网格中特征匹配点数量小于阈值的特征匹配点剔除,从而获得精确的特征匹配点。本发明能够快速地消除初始特征匹配结果中的错误特征匹配点,提高图像匹配的精度,提升基于图像匹配的计算机视觉应用系统的性能,如基于图像的三维重建、图像拼接、图像检索、视觉定位与导航、虚拟现实和增强现实。
-
-
-
-
-
-
-
-