-
公开(公告)号:CN112288789B
公开(公告)日:2024-03-29
申请号:CN202011151995.3
申请日:2020-10-26
Applicant: 杭州电子科技大学
IPC: G06T7/557 , G06N3/0455 , G06N3/0464 , G06N3/084 , G06N3/0895
Abstract: 本发明公开了一种基于遮挡区域迭代优化的光场深度自监督学习方法。本发明步骤如下:S1:从光场图像中提取网络输入;S2:搭建自监督光场深度估计网络,网络输出为中心子光圈图像的视差图。S3:设计基于遮挡掩模的自监督学习损失函数,设定初始遮挡掩模为无遮挡情况。S4:优化基于遮挡掩模的自监督学习损失函数,训练自监督光场深度估计网络。S5:利用步骤S4中训练完成的自监督光场深度估计网络预测得到中心子光圈图像的视差图,计算中心子光圈图像的遮挡区域,更新遮挡掩模。S6:若更新前和更新后遮挡掩模的差异小于设定阈值,则退出迭代优化;否则返回步骤S4。本发明实现遮挡区域的迭代优化,同时优化光场深度估计结果。
-
公开(公告)号:CN111833390A
公开(公告)日:2020-10-27
申请号:CN202010581570.X
申请日:2020-06-23
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于无监督深度学习的光场深度估计方法。本发明设计了无监督损失函数;同时从光场图像中提取一组3×3排列的子光圈图像作为光场深度估计网络的输入,输出中心子光圈图像的视差图,实现端到端的训练。步骤S1.准备光场数据集,制作训练集和测试集;步骤S2.搭建无监督光场深度估计网络;步骤S3.设计无监督光场深度估计损失函数;步骤S4.使用训练集训练无监督光场深度估计网络;本发明通过使用本发明自主搭建的网络结构以及损失函数,在海德堡图像处理实验室提供的4D光场数据集评测网站上,可以获得优于其它无监督深度估计方法的精度。
-
公开(公告)号:CN111833390B
公开(公告)日:2023-06-20
申请号:CN202010581570.X
申请日:2020-06-23
Applicant: 杭州电子科技大学
IPC: G06T7/50 , G06N3/0464 , G06N3/048 , G06N3/088
Abstract: 本发明公开了一种基于无监督深度学习的光场深度估计方法。本发明设计了无监督损失函数;同时从光场图像中提取一组3×3排列的子光圈图像作为光场深度估计网络的输入,输出中心子光圈图像的视差图,实现端到端的训练。步骤S1.准备光场数据集,制作训练集和测试集;步骤S2.搭建无监督光场深度估计网络;步骤S3.设计无监督光场深度估计损失函数;步骤S4.使用训练集训练无监督光场深度估计网络;本发明通过使用本发明自主搭建的网络结构以及损失函数,在海德堡图像处理实验室提供的4D光场数据集评测网站上,可以获得优于其它无监督深度估计方法的精度。
-
公开(公告)号:CN112288789A
公开(公告)日:2021-01-29
申请号:CN202011151995.3
申请日:2020-10-26
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于遮挡区域迭代优化的光场深度自监督学习方法。本发明步骤如下:S1:从光场图像中提取网络输入;S2:搭建自监督光场深度估计网络,网络输出为中心子光圈图像的视差图。S3:设计基于遮挡掩模的自监督学习损失函数,设定初始遮挡掩模为无遮挡情况。S4:优化基于遮挡掩模的自监督学习损失函数,训练自监督光场深度估计网络。S5:利用步骤S4中训练完成的自监督光场深度估计网络预测得到中心子光圈图像的视差图,计算中心子光圈图像的遮挡区域,更新遮挡掩模。S6:若更新前和更新后遮挡掩模的差异小于设定阈值,则退出迭代优化;否则返回步骤S4。本发明实现遮挡区域的迭代优化,同时优化光场深度估计结果。
-
-
-