-
公开(公告)号:CN115601621A
公开(公告)日:2023-01-13
申请号:CN202211264651.2
申请日:2022-10-17
Applicant: 湖北工业大学(CN)
Abstract: 本发明公开了基于条件生成对抗网络的强散射介质主动单像素成像方法,包括:设计基于哈达玛变换的单像素光学成像系统,用于获得测试目标在一系列不同散射条件和采样率下的一维探测信号值;采样得到的不同散射条件和采样率下的一维探测信号值,通过数据平均预处理后整形成二维信号图像,作为测试集图像;构建一种基于带压缩‑激励块和残差块的最小二乘损失函数模型的深度卷积条件生成对抗网络AMSPI‑LSCGAN;将最小二乘损失与内容损失和平均结构相似性损失相结合作为AMSPI‑LSCGAN网络的损失函数进行训练,避免训练崩溃以获得较高保真度的重建图像;将测试集图像输入到已经训练好的AMSPI‑LSCGAN网络中,以进行测试目标的重建。
-
公开(公告)号:CN116542849A
公开(公告)日:2023-08-04
申请号:CN202310279567.6
申请日:2023-03-21
Applicant: 湖北工业大学
IPC: G06T3/40 , G06N3/0475 , G06N3/045
Abstract: 本发明公开一种低采样率下高浊度水下目标成像方法,具体为一种低采样率下基于带有双倍Attention U‑Net的生成对抗网络的高浊度水下主动单像素成像方法,所提网络的生成器采用两个改进的Attention U‑net包含层间的双跳跃连接。另外,空洞卷积金字塔和空间挤压和通道激励模块也集成在网络中以用来获取多尺度信息并去除冗余信息。还将最小二乘损失,像素损失,感知损失和平均结构相似性损失构成总损失函数,取代传统网络损失函数,以稳定训练过程,避免梯度消失,可显著提高高浊度水下、低采样率下的重建目标图像的感知质量。该项工作为高浊度水下单像素成像提供了新的见解,促进了水下光学成像的进一步发展。
-
公开(公告)号:CN113344804B
公开(公告)日:2022-06-14
申请号:CN202110513024.7
申请日:2021-05-11
Applicant: 湖北工业大学
Abstract: 本发明提供了一种弱光图像增强模型的训练方法和弱光图像增强方法,弱光图像增强模型的训练方法包括:将正常光图像和弱光图像输入初始分解模块,得到正常光反射图像、正常光照明图像、弱光反射图像和弱光照明图像;将弱光反射图像和弱光照明图像输入初始颜色恢复模块得到颜色恢复图像;确定第一损失函数值、第二损失函数值和第三损失函数值;根据第一损失函数值和第二损失函数值训练初始分解模块,根据第三损失函数值训练初始颜色恢复模块。本发明中,训练后的分解模块和颜色恢复模块可以取到较好的输出结果,逐步恢复图像的细节特征和颜色信息,通过训练得到的弱光图像增强模型生成的弱光增强图像,在图像细节和颜色恢复上可以得到更好的结果。
-
公开(公告)号:CN112419185A
公开(公告)日:2021-02-26
申请号:CN202011308683.9
申请日:2020-11-20
Applicant: 湖北工业大学
Abstract: 本发明公开了一种基于光场迭代的精确的高反光去除方法:(1)结合光场数据提取中心视角图像,运用自适应阈值和光场迭代算法,充分检测到每一个镜面像素点;重聚焦到镜面候选的每个角度,计算角度像素方差,并设定阈值得到饱和像素点和非饱和像素点;对非饱和像素点转换到HSI空间中进行聚类,运用双色反射模型结合本征图像处理非饱和像素点。(2)提出自适应方向的饱和像素点处理方法,利用边缘检测算子去除对重建饱和像素点有干扰的边缘方向;然后,基于光场的多个角度特征,提出高斯概率分布模型运用到光场图像角度域中进行加权求和以替代饱和高光像素点。(3)提出镜面残余占比和图像信息熵结合的方法定量评估高光去除效果。
-
公开(公告)号:CN113205593A
公开(公告)日:2021-08-03
申请号:CN202110550649.0
申请日:2021-05-17
Applicant: 湖北工业大学
Abstract: 本发明公开了一种基于点云自适应修复的高反光表面结构光场三维重建方法。首先搭建结构光场三维重建系统,提取多视角光场子孔径图像;然后,对重建系统进行标定,将正弦条纹序列投影至参考平面上,移动参考平面并通过聚焦型光场相机记录各移动距离下参考平面上的相位变化,并与初始位置的各像素点的相位值作差,可得到相位差‑景深(移动距离)映射关系,通过子孔径图像提取算法和映射关系可重建得到多视角三维点云。最后,重建得到的多视角点云数据之间存在一定的互补性,目标点云中的数据空洞部分可由其他视角点云相同位置进行迭代修复,从而实现高反光表面物体的完整三维重建。除此之外,针对重建结果,本发明提出了相应的评价方法。
-
公开(公告)号:CN113358062B
公开(公告)日:2022-08-09
申请号:CN202110617634.1
申请日:2021-05-31
Applicant: 湖北工业大学
Abstract: 公开了一种三维重建相位误差补偿方法,包括:步骤1,对要投影的条纹图案进行编码,其包括以下步骤:使用投影仪投射预编码的条纹图案;使用相机采集所述预编码的条纹图案的投影图案;标定计算出所述预编码的条纹图案的所述投影图案的Gamma值,将求解出的所述Gamma值预编码到后续的条纹图案中;步骤2,投射经过Gamma校正的条纹图案,以及所述校正的条纹图案的补偿条纹图案;步骤3,使用相机采集所述校正的条纹图案及其对应的补偿条纹图案的投影图案;步骤4运用三频三相外差法求解所述校正的条纹图案及其对应的补偿条纹图案的投影图案的相位,将这两组的包裹相位相加以消除相位误差,得到补偿后的绝对相位。本发明得到的条纹图像更加平滑,失真度更少。
-
公开(公告)号:CN112712483B
公开(公告)日:2022-08-05
申请号:CN202110049460.3
申请日:2021-01-14
Applicant: 湖北工业大学
Abstract: 本发明涉及光场测量技术,具体涉及一种基于光场双色反射模型和全变分的高反光去除方法,首先对原始光场图像解码并得到多个视角的子孔径图像,运用自适应阈值分割算法提取中心子孔径图像中的高反光像素点。在RGB颜色空间内,使用最小二乘法对每个高反光像素点的多个视角进行空间线性拟合;通过双色反射模型DRM和TI分析,建立拟合的空间直线和DRM的关联,最终得到所对应拟合空间直线的截距项常量即为每个高反光像素点的漫反射颜色。经过遍历图像高反光像素点得到高光去除后的图像。将遮挡视为噪点,使用TV去噪模型去除图像纹理边缘的遮挡效应。该方法在复杂纹理、强反射表面、室内和室外场景的多个场景中,具有很强的鲁棒性。
-
公开(公告)号:CN113344804A
公开(公告)日:2021-09-03
申请号:CN202110513024.7
申请日:2021-05-11
Applicant: 湖北工业大学
Abstract: 本发明提供了一种弱光图像增强模型的训练方法和弱光图像增强方法,弱光图像增强模型的训练方法包括:将正常光图像和弱光图像输入初始分解模块,得到正常光反射图像、正常光照明图像、弱光反射图像和弱光照明图像;将弱光反射图像和弱光照明图像输入初始颜色恢复模块得到颜色恢复图像;确定第一损失函数值、第二损失函数值和第三损失函数值;根据第一损失函数值和第二损失函数值训练初始分解模块,根据第三损失函数值训练初始颜色恢复模块。本发明中,训练后的分解模块和颜色恢复模块可以取到较好的输出结果,逐步恢复图像的细节特征和颜色信息,通过训练得到的弱光图像增强模型生成的弱光增强图像,在图像细节和颜色恢复上可以得到更好的结果。
-
公开(公告)号:CN112419185B
公开(公告)日:2021-07-06
申请号:CN202011308683.9
申请日:2020-11-20
Applicant: 湖北工业大学
Abstract: 本发明公开了一种基于光场迭代的精确的高反光去除方法:(1)结合光场数据提取中心视角图像,运用自适应阈值和光场迭代算法,充分检测到每一个镜面像素点;重聚焦到镜面候选的每个角度,计算角度像素方差,并设定阈值得到饱和像素点和非饱和像素点;对非饱和像素点转换到HSI空间中进行聚类,运用双色反射模型结合本征图像处理非饱和像素点。(2)提出自适应方向的饱和像素点处理方法,利用边缘检测算子去除对重建饱和像素点有干扰的边缘方向;然后,基于光场的多个角度特征,提出高斯概率分布模型运用到光场图像角度域中进行加权求和以替代饱和高光像素点。(3)提出镜面残余占比和图像信息熵结合的方法定量评估高光去除效果。
-
公开(公告)号:CN112712483A
公开(公告)日:2021-04-27
申请号:CN202110049460.3
申请日:2021-01-14
Applicant: 湖北工业大学
Abstract: 本发明涉及光场测量技术,具体涉及一种基于光场双色反射模型和全变分的高反光去除方法,首先对原始光场图像解码并得到多个视角的子孔径图像,运用自适应阈值分割算法提取中心子孔径图像中的高反光像素点。在RGB颜色空间内,使用最小二乘法对每个高反光像素点的多个视角进行空间线性拟合;通过双色反射模型DRM和TI分析,建立拟合的空间直线和DRM的关联,最终得到所对应拟合空间直线的截距项常量即为每个高反光像素点的漫反射颜色。经过遍历图像高反光像素点得到高光去除后的图像。将遮挡视为噪点,使用TV去噪模型去除图像纹理边缘的遮挡效应。该方法在复杂纹理、强反射表面、室内和室外场景的多个场景中,具有很强的鲁棒性。
-
-
-
-
-
-
-
-
-