-
公开(公告)号:CN118351162B
公开(公告)日:2025-04-11
申请号:CN202410513144.0
申请日:2024-04-26
Applicant: 安徽大学
IPC: G06T7/557 , G06T7/73 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开一种基于拉普拉斯金字塔的自监督单目深度估计方法,输入连续图像序列,使用深度估计网络和位姿估计网络获取估计粗深度图和位姿转换信息,使用粗深度图和位姿转换信息重建原图,最后计算和最小化图像重建损失本发明可以计算出高精度的深度图,具有广泛的应用场景,包括三维重建、多视图立体、文化遗产的数字化保护、元宇宙、虚拟现实和增强现实等。
-
公开(公告)号:CN118229872A
公开(公告)日:2024-06-21
申请号:CN202410242011.4
申请日:2024-03-04
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/082 , G06T7/55 , G06T7/80 , G06V10/44
Abstract: 本发明公开一种基于双重不确定性估计的多视图立体方法,根据输入的多视角图像和摄像机参数,计算多视角图像的多尺度特征;构造相邻阶段不确定性估计器,计算多阶段深度图和置信图;构造两两阶段不确定性估计器,计算不确定图;再次,根据不确定图和多阶段深度图,计算混合损失;融合深度图计算高质量的点云。本发明充分挖掘级联结构的深度神经网络模型在多视图立体重建中的潜力,通过在级联结构中嵌入相邻阶段不确定性估计器和两两阶段不确定性估计器,减少误差,提升生成深度图的准确性,最终生成高质量的点云模型。
-
公开(公告)号:CN118229872B
公开(公告)日:2024-11-01
申请号:CN202410242011.4
申请日:2024-03-04
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/082 , G06T7/55 , G06T7/80 , G06V10/44
Abstract: 本发明公开一种基于双重不确定性估计的多视图立体方法,根据输入的多视角图像和摄像机参数,计算多视角图像的多尺度特征;构造相邻阶段不确定性估计器,计算多阶段深度图和置信图;构造两两阶段不确定性估计器,计算不确定图;再次,根据不确定图和多阶段深度图,计算混合损失;融合深度图计算高质量的点云。本发明充分挖掘级联结构的深度神经网络模型在多视图立体重建中的潜力,通过在级联结构中嵌入相邻阶段不确定性估计器和两两阶段不确定性估计器,减少误差,提升生成深度图的准确性,最终生成高质量的点云模型。
-
公开(公告)号:CN118351162A
公开(公告)日:2024-07-16
申请号:CN202410513144.0
申请日:2024-04-26
Applicant: 安徽大学
IPC: G06T7/557 , G06T7/73 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开一种基于拉普拉斯金字塔的自监督单目深度估计方法,输入连续图像序列,使用深度估计网络和位姿估计网络获取估计粗深度图和位姿转换信息,使用粗深度图和位姿转换信息重建原图,最后计算和最小化图像重建损失本发明可以计算出高精度的深度图,具有广泛的应用场景,包括三维重建、多视图立体、文化遗产的数字化保护、元宇宙、虚拟现实和增强现实等。
-
-
-