一种基于残差学习及空间变换网络的光场超分辨率重建方法

    公开(公告)号:CN112950475A

    公开(公告)日:2021-06-11

    申请号:CN202110254556.3

    申请日:2021-03-05

    Abstract: 一种基于残差学习及空间变换网络的光场超分辨率重建方法属于计算机视觉领域。本发明根据光场图像空间分辨率低的问题对图像进行超分辨率重建,首先设计了4+1的融合模型来学习光场图像的特征,此外,为了更好的提取特征,本发明将空间变换网络的定位器进行了改进。在具体操作中,将图像按照相对位置分别输入到改进的空间变换网络中,通过递归结构的卷积神经网络进行特征重建与融合,期间充分利用了相邻视图的特征信息,弥补了其他方法对相邻视点信息利用的不足,配合先进的网络结构设计,使得模型具有更好的重建效果。

    基于残差学习及空间变换网络的光场超分辨率重建方法

    公开(公告)号:CN112950475B

    公开(公告)日:2024-09-24

    申请号:CN202110254556.3

    申请日:2021-03-05

    Abstract: 一种基于残差学习及空间变换网络的光场超分辨率重建方法属于计算机视觉领域。本发明根据光场图像空间分辨率低的问题对图像进行超分辨率重建,首先设计了4+1的融合模型来学习光场图像的特征,此外,为了更好的提取特征,本发明将空间变换网络的定位器进行了改进。在具体操作中,将图像按照相对位置分别输入到改进的空间变换网络中,通过递归结构的卷积神经网络进行特征重建与融合,期间充分利用了相邻视图的特征信息,弥补了其他方法对相邻视点信息利用的不足,配合先进的网络结构设计,使得模型具有更好的重建效果。

    一种光场图像压缩方法
    3.
    发明公开

    公开(公告)号:CN112184842A

    公开(公告)日:2021-01-05

    申请号:CN202011067776.7

    申请日:2020-10-07

    Abstract: 本发明公开一种光场图像压缩方法,包括:步骤一:将光场图像转化为光场子视图;步骤二:将光场子视图分为编码集Scode和未编码集Suncode;步骤三:将编码后解码的Scode的光场子视图作为多分支空间变换网络MSTN的输入,获得与待重建子视图(未编码集Suncode)更相似的子视图;步骤四:将变换后的子视图集(MSTN的输出)作为生成对抗网络WGAN‑gp的输入,得到重建的当前视点的子视图。采用本发明的技术方案,提升了重建视图的质量,优化了光场图像压缩的效果。

    一种光场图像压缩方法
    4.
    发明授权

    公开(公告)号:CN112184842B

    公开(公告)日:2024-01-05

    申请号:CN202011067776.7

    申请日:2020-10-07

    Abstract: 本发明公开一种光场图像压缩方法,包括:步骤一:将光场图像转化为光场子视图;步骤二:将光场子视图分为编码集Scode和未编码集Suncode;步骤三:将编码后解码的Scode的光场子视图作为多分支空间变换网络MSTN的输入,获得与待重建子视图(未编码集Suncode)更相似的子视图;步骤四:将变换后的子视图集(MSTN的输出)作为生成对抗网络WGAN‑gp的输入,得到重建的当前视点的子视图。采用本发明的技术方案,提(56)对比文件Nader Bakir 等.Light Field ImageCompression Based on Convolutional NeuralNetworks and Linear Approximation.201825th IEEE International Conference onImage Processing (ICIP).2018,第1128-1132页.

Patent Agency Ranking