基于二维符号距离场的阴影消除方法

    公开(公告)号:CN119379555B

    公开(公告)日:2025-03-11

    申请号:CN202411904895.1

    申请日:2024-12-23

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于二维符号距离场的阴影消除方法,通过2D符号距离场计算阴影图像的软权重掩码和SDF图像,通过软权重掩码提取原始阴影图像中的阴影区域和非阴影区域;快速傅里叶变换模块提取局部空间特征全局频率特征;通过信息交互模块IIM融合局部空间特征全局频率特征的注意力权重图得到融合特征;通过边界细化模块BRM输出边界细化后特征图;通过卷积操作提取非阴影区域的特征,通过全局特征调制模块GFM将全局特征向量、非阴影区域的特征和SDF特征进行调制,最终输出无阴影图像。本发明在阴影区域的亮度恢复、边界过渡和平滑性方面具有显著优势,使得去除后的图像接近真实无阴影效果。

    基于双重不确定性估计的多视图立体方法

    公开(公告)号:CN118229872A

    公开(公告)日:2024-06-21

    申请号:CN202410242011.4

    申请日:2024-03-04

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于双重不确定性估计的多视图立体方法,根据输入的多视角图像和摄像机参数,计算多视角图像的多尺度特征;构造相邻阶段不确定性估计器,计算多阶段深度图和置信图;构造两两阶段不确定性估计器,计算不确定图;再次,根据不确定图和多阶段深度图,计算混合损失;融合深度图计算高质量的点云。本发明充分挖掘级联结构的深度神经网络模型在多视图立体重建中的潜力,通过在级联结构中嵌入相邻阶段不确定性估计器和两两阶段不确定性估计器,减少误差,提升生成深度图的准确性,最终生成高质量的点云模型。

    基于深度感知迭代器的大规模多视图立体方法

    公开(公告)号:CN117437363B

    公开(公告)日:2024-03-22

    申请号:CN202311754136.7

    申请日:2023-12-20

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于深度感知迭代器的大规模多视图立体方法,首先提取多尺度特征;然后,计算像素级视图权重、深度图和置信图;其次,构造深度感知迭代器;再次,构造混合损失策略,优化深度图;最后,融合深度图,即可获得点云模型。本发明充分利用基于深度感知迭代器的由粗到细的深度图计算方法,有效地将上下文引导的深度几何信息融合到代价体中计算出高质量的深度图,进而计算出精确的点云模型。

    一种快速及高精度的全景图像裁剪方法

    公开(公告)号:CN116934774B

    公开(公告)日:2024-03-22

    申请号:CN202310800725.8

    申请日:2023-06-30

    Applicant: 安徽大学

    Abstract: 本发明公开一种快速及高精度的全景图像裁剪方法与系统,对于给定的全景图像,首先计算全景图像对应的二值图像(Mask);其次,计算二值图像包含的最大内接矩形;然后,根据最大内接矩形计算全景图像的感兴趣区域;最后,提取感兴趣域内的图像,即可获得完整图像信息。本发明公开的“一种快速及高精度的全景图像裁剪方法与系统”可以被应用于虚拟现实、增强现实、三维重建、道路资产数字化、数字孪生和元宇宙领域。

    一种层次化的图像匹配方法

    公开(公告)号:CN114332510B

    公开(公告)日:2024-03-22

    申请号:CN202210001464.9

    申请日:2022-01-04

    Applicant: 安徽大学

    Abstract: 本发明公开一种层次化的图像匹配方法,获得查询图像和参考图像特征点特征描述子,从参考图像包含的局部特征点中,为查询图像中的每个局部特征点寻找两个最相似的候选匹配特征点;并依次筛选出最佳特征匹配结果。本发明能够快速地计算出两幅图像之间的特征匹配点,然后应用于一系列的基于图像匹配的高层次计算机视觉任务中:基于图像的三维重建、同时定位与地图构建、图像检索、地图导航、数字孪生、图像拼接、混合现实、虚拟现实和增强现实等。

    一种抗场景遮挡的多视图立体重建方法

    公开(公告)号:CN116805355A

    公开(公告)日:2023-09-26

    申请号:CN202311079988.0

    申请日:2023-08-25

    Applicant: 安徽大学

    Abstract: 本发明公开一种抗场景遮挡的多视图立体重建方法,首先根据输入的图像数据计算场景的稀疏点云模型和摄像机参数;其次,根据稀疏点云模型和摄像机参数,从输入的图像数据中计算场景的半稠密点云模型;再次,根据半稠密的点云模型,计算图像的深度图;第四,计算输入图像的轮廓信息;第五,使用图像的轮廓信息对深度图进行增强处理,获得稠密的深度图;最后,使用稠密的深度图对半稠密的点云模型进行增强处理,即可获得高质量的稠密点云模型。本发明充分利用了图形的轮廓信息,提高遮挡场景下的多视图立体重建的质量,为基于多视图立体重建技术的相关应用领域(例如:虚拟现实、增强现实、数字孪生、元宇宙、农业与工业仿真、数据可视化、自动驾驶、场景的数字化、文化遗产的数字化保护等)奠定坚实的技术基础。

    一种面向大规模航拍图像的分布式多视图立体重建方法

    公开(公告)号:CN115719407B

    公开(公告)日:2023-06-27

    申请号:CN202310011438.9

    申请日:2023-01-05

    Applicant: 安徽大学

    Abstract: 本发明公开一种面向大规模航拍图像的分布式多视图立体重建方法,先计算场景的稀疏点云模型和摄像机姿态,将稀疏点云模型划分为不同的区域,计算每个区域中所包含图像的深度图,为每个区域选择两幅最佳的深度图像作为初始融合视图,融合每个区域的深度图像、即可获得每个区域内的稠密点云模型,合并多个区域内的稠密点云、即可获得完整场景的稠密点云模型。本发明充分利用了大规模航拍图像之间的区域性,将大规模场景的多视图立体重建问题转化为可以在低性能计算机上求解的小规模多视图立体重建问题,既提高了三维重建的时间效率,又降低了三维重建的成本。

    一种面向大规模航拍图像的分布式运动推断结构方法

    公开(公告)号:CN113284227A

    公开(公告)日:2021-08-20

    申请号:CN202110528870.6

    申请日:2021-05-14

    Applicant: 安徽大学

    Abstract: 本发明公开本发明的目的在于解决现有技术中存在的不足,先将大规模的航拍图像数据划分具有一定重叠度的子集,避免图像数据量过大导致单机版本的运动推断结构方法和系统出现内存溢出问题;其次,在分布式计算环境下不同节点上同时计算每个子集图像所对应的稀疏点云模型和摄像机参数,使得能够在有限的时间内计算出大规模场景的三维模型。本发明能够在在分布式环境下快速地计算出大规模航拍图像对应的稀疏点云模型和摄像机参数,使得基于航拍图像的高精度及快速的大规模室外场景三维重建变成可能。

Patent Agency Ranking