一种基于深度卷积神经网络的光场图像深度估计方法

    公开(公告)号:CN112116646B

    公开(公告)日:2023-11-24

    申请号:CN202011007828.1

    申请日:2020-09-23

    Abstract: 本发明公开了一种基于深度卷积神经网络的光场图像深度估计方法,由场景的4D光场数据提取中心子孔径图像;由4D光场数据计算生成水平EPI合成图像和垂直EPI合成图像;设计以中心子孔径图像、水平EPI合成图像和垂直EPI合成图像为输入,视差图为输出的深度卷积神经网络;以平均绝对误差为损失函数,训练所涉及的深度卷积神经网络;利用训练成功的深度卷积神经网络,接收由给定场景4D光场数据生成的中心子孔径图像、水平EPI合成图像、垂直EPI合成图像,计算得到场景的视差图。本发明所设计的深度卷积神经网络采用了多流输入、跳层连接体系结构,有利于多源输入信息、浅层深层特征信息融合,提高了深度估计的鲁棒性。(56)对比文件范晓婷;李奕;罗晓维;张凝;韩梦芯;雷建军.基于光场结构特性与多视点匹配的深度估计.红外与激光工程.2019,(第05期),全文.Vinh Van Duong;Thuc Nguyen Huu;JeonByeungwoo.“Comparison of Data Costs forDepth Estimation from Compressed LightField Images”《.INTERNATIONAL WORKSHOP ONADVANCED IMAGING TECHNOLOGY (IWAIT)2020》.2020,全文.

    一种基于深度卷积神经网络的光场图像深度估计方法

    公开(公告)号:CN112116646A

    公开(公告)日:2020-12-22

    申请号:CN202011007828.1

    申请日:2020-09-23

    Abstract: 本发明公开了一种基于深度卷积神经网络的光场图像深度估计方法,由场景的4D光场数据提取中心子孔径图像;由4D光场数据计算生成水平EPI合成图像和垂直EPI合成图像;设计以中心子孔径图像、水平EPI合成图像和垂直EPI合成图像为输入,视差图为输出的深度卷积神经网络;以平均绝对误差为损失函数,训练所涉及的深度卷积神经网络;利用训练成功的深度卷积神经网络,接收由给定场景4D光场数据生成的中心子孔径图像、水平EPI合成图像、垂直EPI合成图像,计算得到场景的视差图。本发明所设计的深度卷积神经网络采用了多流输入、跳层连接体系结构,有利于多源输入信息、浅层深层特征信息融合,提高了深度估计的鲁棒性。

Patent Agency Ranking