具有多场景适应性的透过散射介质模块化成像方法

    公开(公告)号:CN113901963A

    公开(公告)日:2022-01-07

    申请号:CN202111472000.8

    申请日:2021-12-06

    Abstract: 本发明涉及一种具有多场景适应性的透过散射介质模块化成像方法,包括构建散射介质成像卷积神经网络;改进基础结构;采用即插即用模块与基础结构结合组成新的网络结构;采集数据对卷积神经网络进行训练优化;利用优化后的卷积神经网络进行成像。本发明通过在UNet神经网络结构的基础上增加语义嵌入分支模块SEB,将更多的语义信息引入低级特征,更好地实现低级特征与高级特征之间的融合;结合感受野模块,扩大卷积神经网络的感受野,提升特征层的全局性,优化了成像质量;将特征融合模块、密集连接模块和感受野模块与基础结构结合作为即插即用的系列进行应用,提高了神经网络结构的灵活性。

    基于深度学习的精确快速大景深三维重建方法

    公开(公告)号:CN113256800A

    公开(公告)日:2021-08-13

    申请号:CN202110646148.2

    申请日:2021-06-10

    Abstract: 本发明涉及一种基于深度学习的精确快速大景深三维重建方法,属于计算机智能视觉技术领域。包括如下步骤:基于深度学习设计搭建景深拓展卷积神经网络,通过三维测量系统采集待测物体的原始条纹图片,再获取高精度包裹相位,并以此重建三维信息。本发明提出的方法利用设备在固定的焦距下所拍摄的三张不同相移的条纹图像,即可在较大的测量景深内获得高精度的包裹相位。在这一过程中,投影仪和相机所引起的测量误差可被明显降低,仅通过单次拍摄即可在大景深场景下实现高性能的三维重建。

    基于自监督深度学习的几何约束相位展开方法

    公开(公告)号:CN113884027B

    公开(公告)日:2022-03-18

    申请号:CN202111458588.1

    申请日:2021-12-02

    Abstract: 本发明涉及一种基于自监督深度学习的几何约束相位展开方法,属于图像处理技术领域。包括如下步骤:S1:通过三维测量系统采集原始的待测物体的条纹图片并计算得到包裹相位图以及背景光强图像,并通过标定得到系统中投影仪与相机的标定参数;S2:将S1中的包裹相位图和背景光强图通过卷积神经网络转换成展开相位所需的条纹级次的图像;S3:将S2中的条纹级次图像经过相位深度映射与相应的系统标定参数计算得到精确的三维信息。本发明可以解决基于监督学习进行相位展开存在的泛化能力低、强数据依赖的问题。

    基于自监督深度学习的几何约束相位展开方法

    公开(公告)号:CN113884027A

    公开(公告)日:2022-01-04

    申请号:CN202111458588.1

    申请日:2021-12-02

    Abstract: 本发明涉及一种基于自监督深度学习的几何约束相位展开方法,属于图像处理技术领域。包括如下步骤:S1:通过三维测量系统采集原始的待测物体的条纹图片并计算得到包裹相位图以及背景光强图像,并通过标定得到系统中投影仪与相机的标定参数;S2:将S1中的包裹相位图和背景光强图通过卷积神经网络转换成展开相位所需的条纹级次的图像;S3:将S2中的条纹级次图像经过相位深度映射与相应的系统标定参数计算得到精确的三维信息。本发明可以解决基于监督学习进行相位展开存在的泛化能力低、强数据依赖的问题。

    基于深度学习的精确快速大景深三维重建方法

    公开(公告)号:CN113256800B

    公开(公告)日:2021-11-26

    申请号:CN202110646148.2

    申请日:2021-06-10

    Abstract: 本发明涉及一种基于深度学习的精确快速大景深三维重建方法,属于计算机智能视觉技术领域。包括如下步骤:基于深度学习设计搭建景深拓展卷积神经网络,通过三维测量系统采集待测物体的原始条纹图片,再获取高精度包裹相位,并以此重建三维信息。本发明提出的方法利用设备在固定的焦距下所拍摄的三张不同相移的条纹图像,即可在较大的测量景深内获得高精度的包裹相位。在这一过程中,投影仪和相机所引起的测量误差可被明显降低,仅通过单次拍摄即可在大景深场景下实现高性能的三维重建。

Patent Agency Ranking