-
公开(公告)号:CN117437363A
公开(公告)日:2024-01-23
申请号:CN202311754136.7
申请日:2023-12-20
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0442 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开一种基于深度感知迭代器的大规模多视图立体方法,首先提取多尺度特征;然后,计算像素级视图权重、深度图和置信图;其次,构造深度感知迭代器;再次,构造混合损失策略,优化深度图;最后,融合深度图,即可获得点云模型。本发明充分利用基于深度感知迭代器的由粗到细的深度图计算方法,有效地将上下文引导的深度几何信息融合到代价体中计算出高质量的深度图,进而计算出精确的点云模型。
-
公开(公告)号:CN117853645A
公开(公告)日:2024-04-09
申请号:CN202410242047.2
申请日:2024-03-04
Applicant: 安徽大学
IPC: G06T15/20 , G06N3/0464 , G06N3/082 , G06T7/529 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/778 , G06V10/80 , G06V10/82
Abstract: 本发明公开一种基于跨视图捆绑交叉感知神经辐射场的图像渲染方法,利用轻量型捆绑特征提取模块计算多尺度捆绑卷积特征;利用混合交叉感知机制细化卷积特征,聚合跨视图交互信息并及时补充上下文特征信息,然后,进行相似性嵌入体渲染,将几何先验条件的余旋相似度作为显示匹配嵌入线索,为预测颜色密度场捕捉相似匹配信息;再后,最小化颜色与内容一致性损失,添加相同时间戳内的渲染视图与真实瞬时视图对数的绝对值差异,解决场景跨度大和特征信息匮乏情况下的伪影和模糊纹理问题。
-
公开(公告)号:CN118229872B
公开(公告)日:2024-11-01
申请号:CN202410242011.4
申请日:2024-03-04
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/082 , G06T7/55 , G06T7/80 , G06V10/44
Abstract: 本发明公开一种基于双重不确定性估计的多视图立体方法,根据输入的多视角图像和摄像机参数,计算多视角图像的多尺度特征;构造相邻阶段不确定性估计器,计算多阶段深度图和置信图;构造两两阶段不确定性估计器,计算不确定图;再次,根据不确定图和多阶段深度图,计算混合损失;融合深度图计算高质量的点云。本发明充分挖掘级联结构的深度神经网络模型在多视图立体重建中的潜力,通过在级联结构中嵌入相邻阶段不确定性估计器和两两阶段不确定性估计器,减少误差,提升生成深度图的准确性,最终生成高质量的点云模型。
-
公开(公告)号:CN118229872A
公开(公告)日:2024-06-21
申请号:CN202410242011.4
申请日:2024-03-04
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/082 , G06T7/55 , G06T7/80 , G06V10/44
Abstract: 本发明公开一种基于双重不确定性估计的多视图立体方法,根据输入的多视角图像和摄像机参数,计算多视角图像的多尺度特征;构造相邻阶段不确定性估计器,计算多阶段深度图和置信图;构造两两阶段不确定性估计器,计算不确定图;再次,根据不确定图和多阶段深度图,计算混合损失;融合深度图计算高质量的点云。本发明充分挖掘级联结构的深度神经网络模型在多视图立体重建中的潜力,通过在级联结构中嵌入相邻阶段不确定性估计器和两两阶段不确定性估计器,减少误差,提升生成深度图的准确性,最终生成高质量的点云模型。
-
公开(公告)号:CN117853645B
公开(公告)日:2024-05-28
申请号:CN202410242047.2
申请日:2024-03-04
Applicant: 安徽大学
IPC: G06T15/20 , G06N3/0464 , G06N3/082 , G06T7/529 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/774 , G06V10/778 , G06V10/80 , G06V10/82
Abstract: 本发明公开一种基于跨视图捆绑交叉感知神经辐射场的图像渲染方法,利用轻量型捆绑特征提取模块计算多尺度捆绑卷积特征;利用混合交叉感知机制细化卷积特征,聚合跨视图交互信息并及时补充上下文特征信息,然后,进行相似性嵌入体渲染,将几何先验条件的余旋相似度作为显示匹配嵌入线索,为预测颜色密度场捕捉相似匹配信息;再后,最小化颜色与内容一致性损失,添加相同时间戳内的渲染视图与真实瞬时视图对数的绝对值差异,解决场景跨度大和特征信息匮乏情况下的伪影和模糊纹理问题。
-
公开(公告)号:CN117437363B
公开(公告)日:2024-03-22
申请号:CN202311754136.7
申请日:2023-12-20
Applicant: 安徽大学
IPC: G06T17/00 , G06N3/0442 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开一种基于深度感知迭代器的大规模多视图立体方法,首先提取多尺度特征;然后,计算像素级视图权重、深度图和置信图;其次,构造深度感知迭代器;再次,构造混合损失策略,优化深度图;最后,融合深度图,即可获得点云模型。本发明充分利用基于深度感知迭代器的由粗到细的深度图计算方法,有效地将上下文引导的深度几何信息融合到代价体中计算出高质量的深度图,进而计算出精确的点云模型。
-
-
-
-
-