基于非局部自回归模型的深度图像超分辨率方法及装置

    公开(公告)号:CN116596757A

    公开(公告)日:2023-08-15

    申请号:CN202310395979.6

    申请日:2023-04-13

    Abstract: 基于非局部自回归模型的深度图像超分辨率方法及装置,具有很好的客观结果,边界纹理更加清晰且几乎没有伪影存在,能够有效的压制噪声,具有最清晰的纹理而且几乎没有锯齿状的边界。方法包括:(1)向系统输入低分辨率的深度图和对应的彩图;(2)对低分辨率深度图像进行插值,并提取其轮廓;(3)对彩色图像进行轮廓提取,并利用深度图轮廓去除多余的纹理,获得特征图;(4)将插值后的深度图进行分块,训练多方向字典;(5)利用插值后的深度图计算自回归系数;(6)利用插值后的深度图和彩图的特征图,计算相似图像块;(7)利用多方向字典和重建模型,重建深度图;(8)输出重建后的高质量深度图。

    基于几何先验网络的三维重建方法及装置

    公开(公告)号:CN116597112A

    公开(公告)日:2023-08-15

    申请号:CN202310400126.7

    申请日:2023-04-13

    Abstract: 基于几何先验网络的三维重建方法及装置,采用一个具有几何知识的数据驱动型深度神经网络,使用从粗到细的策略重建三维网格,为了丰富重建结果的几何细节,引入高斯曲率并设计实现了高斯曲率损失作为几何监督,来测量重建网格和目标网格在几何属性上的相似性,为了生成物理上精确的三维网格,设计实现了网格细分模块,该模块利用Loop细分算法将网格细化为光滑曲面的分段线性近似,并通过融合顶点自身及其相邻顶点的特征来更新顶点特征,因此本发明能够帮助网格获得丰富的几何细节,从而提高重建的精度,有助于改善粗糙表面,使得重建的模型在主观上表现更好。

    一种基于多方向字典的深度图像超分辨率方法

    公开(公告)号:CN107767357B

    公开(公告)日:2021-04-09

    申请号:CN201710825666.4

    申请日:2017-09-14

    Abstract: 本发明公开一种基于多方向字典的深度图像超分辨率方法,包括以下步骤:步骤一:提取彩色图像特征,获得轮廓图;步骤二:对低分辨率深度图像进行插值,用高通滤波来表示其特征;步骤三:将低分辨率深度图像进行分块,计算每个图像块的几何方向;步骤四:进行字典训练;步骤五:根据步骤三中得到的几何方向,选择字典,重建深度图像。采用本发明的技术方案,使深度图像的分辨率得到增强,边界纹理区域清晰。

Patent Agency Ranking