-
公开(公告)号:CN117765187B
公开(公告)日:2024-04-26
申请号:CN202410196740.0
申请日:2024-02-22
Applicant: 成都信息工程大学
Abstract: 本发明公开了基于多模态深度估计引导的单目隐神经的建图方法,采用模糊深度感知模块的条件隐式最大似然估计技术生成深度多模态分布先验,提高存在非不透明介质时的场景重建精度,引入空间雕刻损失实现多视图深度估计的有效融合,获得全局一致的场景表征,引入表面法线损失,加强局部几何一致性约束,优化场景表示的同时使得系统在仅RGB输入的条件下,也具备精确的位姿跟踪精度和鲁棒性,解决了现有技术中因形状辐射歧义导致的全局表面重建不一致性,受限于物体空间位置遮挡与传感器测量精度导致建图不完整,定位效果不理想的问题。
-
公开(公告)号:CN117765187A
公开(公告)日:2024-03-26
申请号:CN202410196740.0
申请日:2024-02-22
Applicant: 成都信息工程大学
Abstract: 本发明公开了基于多模态深度估计引导的单目隐神经的建图方法,采用模糊深度感知模块的条件隐式最大似然估计技术生成深度多模态分布先验,提高存在非不透明介质时的场景重建精度,引入空间雕刻损失实现多视图深度估计的有效融合,获得全局一致的场景表征,引入表面法线损失,加强局部几何一致性约束,优化场景表示的同时使得系统在仅RGB输入的条件下,也具备精确的位姿跟踪精度和鲁棒性,解决了现有技术中因形状辐射歧义导致的全局表面重建不一致性,受限于物体空间位置遮挡与传感器测量精度导致建图不完整,定位效果不理想的问题。
-
公开(公告)号:CN118212372B
公开(公告)日:2024-07-23
申请号:CN202410630016.4
申请日:2024-05-21
Applicant: 成都信息工程大学
IPC: G06T17/05 , G06T17/10 , G06T17/20 , G06T15/00 , G06T15/08 , G06V10/80 , G06V10/44 , G06V10/46 , G06V10/56 , G06V10/82 , G06N3/0499 , G06N3/048
Abstract: 本发明公开了一种融合神经隐式表面表征与体积渲染的建图方法,基于密度场是由一个定义良好的表面产生的这一设定,将经典体渲染技术中的体密度建模为参数可学习的符号距离函数,并利用估计的TSDF引导由光心像素生成射线与真实表面交点附近密集采样,使采样点分布更好地吻合场景真实辐射场分布,以获取更准确的表面几何近似与颜色表征。通过采用体素存储TSDF与高效的空间收缩函数,增强射线与几何边界交叉的检测效率,实现无边界的真实世界场景的照片级图像合成,同时生成精确的深度图。采用体素动态扩展技术实现大规模场景的高效隐式场景表示。
-
公开(公告)号:CN118212372A
公开(公告)日:2024-06-18
申请号:CN202410630016.4
申请日:2024-05-21
Applicant: 成都信息工程大学
IPC: G06T17/05 , G06T17/10 , G06T17/20 , G06T15/00 , G06T15/08 , G06V10/80 , G06V10/44 , G06V10/46 , G06V10/56 , G06V10/82 , G06N3/0499 , G06N3/048
Abstract: 本发明公开了一种融合神经隐式表面表征与体积渲染的建图方法,基于密度场是由一个定义良好的表面产生的这一设定,将经典体渲染技术中的体密度建模为参数可学习的符号距离函数,并利用估计的TSDF引导由光心像素生成射线与真实表面交点附近密集采样,使采样点分布更好地吻合场景真实辐射场分布,以获取更准确的表面几何近似与颜色表征。通过采用体素存储TSDF与高效的空间收缩函数,增强射线与几何边界交叉的检测效率,实现无边界的真实世界场景的照片级图像合成,同时生成精确的深度图。采用体素动态扩展技术实现大规模场景的高效隐式场景表示。
-
-
-