-
公开(公告)号:CN119417995A
公开(公告)日:2025-02-11
申请号:CN202510027365.1
申请日:2025-01-08
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0464 , G06N3/045 , G06N3/088 , G06V20/70 , G06V10/74 , G06V10/34 , G06V10/44 , G06V10/42 , G06V10/52 , G06V10/80 , G06V10/766 , G06V10/82 , G06N3/048
Abstract: 本发明公开一种抗遮挡区域的无监督多视图立体重建方法,能够在无需依赖真实深度信息的情况下,通过处理来自多个视角的图像,有效解决遮挡区域的三维重建问题,并计算出具有高精度的点云模型。首先,提取多尺度特征;然后,采用可变形的大核注意力网络聚合全局信息,计算场景的深度图和对应的置信图;其次,计算对比一致性损失和感知一致性损失为深度估计过程提供伪监督信号,优化深度图;最后,融合深度图,即可获得点云模型。本发明充分利用基于多种监督项的无监督多视图立体计算方法,有效挖掘输入图像自身的特征,估计出高质量的深度图,进而计算出精确的点云模型。
-
公开(公告)号:CN119417995B
公开(公告)日:2025-03-21
申请号:CN202510027365.1
申请日:2025-01-08
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0464 , G06N3/045 , G06N3/088 , G06V20/70 , G06V10/74 , G06V10/34 , G06V10/44 , G06V10/42 , G06V10/52 , G06V10/80 , G06V10/766 , G06V10/82 , G06N3/048
Abstract: 本发明公开一种抗遮挡区域的无监督多视图立体重建方法,能够在无需依赖真实深度信息的情况下,通过处理来自多个视角的图像,有效解决遮挡区域的三维重建问题,并计算出具有高精度的点云模型。首先,提取多尺度特征;然后,采用可变形的大核注意力网络聚合全局信息,计算场景的深度图和对应的置信图;其次,计算对比一致性损失和感知一致性损失为深度估计过程提供伪监督信号,优化深度图;最后,融合深度图,即可获得点云模型。本发明充分利用基于多种监督项的无监督多视图立体计算方法,有效挖掘输入图像自身的特征,估计出高质量的深度图,进而计算出精确的点云模型。
-