-
公开(公告)号:CN118761931A
公开(公告)日:2024-10-11
申请号:CN202410756397.0
申请日:2024-06-12
Applicant: 郑州轻工业大学
IPC: G06T5/73 , G06V10/774 , G06V10/764 , G06V10/77 , G06N3/0464 , G06N3/0475 , G06N3/0455 , G06N3/048 , G06N3/0499 , G06N3/094
Abstract: 本发明公开了一种基于混合级联组注意力Transformer的非配对遥感图像去雾方法,构建具有混合级联组注意力Transformer模块的U‑Net网络结构生成器,并预训练U‑Net网络结构生成器;将预训练后的U‑Net网络结构生成器作为循环生成对抗网络的生成器,通过循环生成对抗网络实现非配对遥感有雾图像和遥感无雾图像之间的相互转化,使用损失函数调整循环生成对抗网络的参数,得到最优非配对遥感图像去雾模型。本发明不仅能够在重要区域和细节方面生成高感知质量的遥感无雾图像,同时能够避免特征丢失和颜色的偏移。
-
公开(公告)号:CN111242878A
公开(公告)日:2020-06-05
申请号:CN202010034171.1
申请日:2020-01-14
Applicant: 郑州轻工业大学
Abstract: 本发明公开了一种基于布谷鸟搜索的矿井下图像增强方法,采用布谷鸟搜索算法结合本发明提出的BGDPH算法对图像进行增强处理,其步骤为:先将矿井下图像转换到HSV颜色空间、并对饱和度分量S进行自适应非线性拉伸处理;接着初始化布谷鸟搜索算法参数和种群,就每个鸟巢位置对亮度分量V进行BGDPH算法处理得到中间图像;然后通过对中间图像的熵值、亮度差值和灰度标准方差的加权融合计算该鸟巢的适应度值,并采用Levy飞行的规则化方式迭代更新最佳鸟巢位置、最终的最优位置代入BGDPH算法来增强分量V;最后将HSV图像转换回RGB空间得到最终增强图像。本发明相比其它方法增强图像效果好、明显改善了矿井下图像的视觉效果。
-
公开(公告)号:CN111242878B
公开(公告)日:2023-05-12
申请号:CN202010034171.1
申请日:2020-01-14
Applicant: 郑州轻工业大学
Abstract: 本发明公开了一种基于布谷鸟搜索的矿井下图像增强方法,采用布谷鸟搜索算法结合本发明提出的BGDPH算法对图像进行增强处理,其步骤为:先将矿井下图像转换到HSV颜色空间、并对饱和度分量S进行自适应非线性拉伸处理;接着初始化布谷鸟搜索算法参数和种群,就每个鸟巢位置对亮度分量V进行BGDPH算法处理得到中间图像;然后通过对中间图像的熵值、亮度差值和灰度标准方差的加权融合计算该鸟巢的适应度值,并采用Levy飞行的规则化方式迭代更新最佳鸟巢位置、最终的最优位置代入BGDPH算法来增强分量V;最后将HSV图像转换回RGB空间得到最终增强图像。本发明相比其它方法增强图像效果好、明显改善了矿井下图像的视觉效果。
-
公开(公告)号:CN117078505A
公开(公告)日:2023-11-17
申请号:CN202310928858.3
申请日:2023-07-27
Applicant: 郑州轻工业大学
IPC: G06T3/00 , G06N3/0475 , G06N3/045 , G06N3/094
Abstract: 本发明提供一种基于结构线提取的图像卡通化方法,其包括:获取源域和目标域的训练集;构建基于结构线提取的图像卡通化生成对抗网络,其中结构线提取网络利用下采样提取图像特征,当下采样在较粗尺度上生成粗略结构线时,上采样再对其进行卷积,并从粗到细重建输出图像线条;构建损失函数,利用损失值调整所述生成对抗网络模型的参数,优化生成器和判别器网络;循环迭代多轮整个生成对抗网络模型,得到训练好的卡通图像生成式网络;将待处理的自然图像输入到训练好的卡通图像生成式网络,即可得到对应风格的卡通图像。本发明不仅在重要区域和细节方面生成了高感知质量的卡通化图像,同时避免了内容和颜色的损失。
-
公开(公告)号:CN118761901A
公开(公告)日:2024-10-11
申请号:CN202410822459.3
申请日:2024-06-18
Applicant: 郑州轻工业大学
IPC: G06T3/04 , G06N3/0475 , G06N3/094 , G06N3/0464
Abstract: 本发明提供一种基于样式条件信息的多风格图像卡通化方法,其包括:获取源域和目标域的训练集;包含两个用于促进多样式图像卡通化的关键组件,即分别设计了一个条件生成器和一个多风格学习判别器,将风格条件信息嵌入特征空间,提高模型实现不同卡通风格的能力;构建损失函数,引入条件对比损失用于促进不同风格的卡通图像生成;利用各损失值调整所述生成对抗网络模型的参数,优化生成器和判别器网络,并循环迭代多轮整个生成对抗网络模型,得到训练好的多风格卡通化生成式网络;将待处理的自然图像输入到训练好的多风格卡通化生成式网络,即可得到不同风格的卡通图像;本发明简化了不同风格图像的生成过程,只需要对模型进行一次训练,显著提高了效率。
-
公开(公告)号:CN117058167A
公开(公告)日:2023-11-14
申请号:CN202310929226.9
申请日:2023-07-27
Applicant: 郑州轻工业大学
Abstract: 本发明公开了一种基于自适应图像增强的夜间道路场景语义分割方法,主要解决夜间道路场景下图像缺乏带标注夜间道路场景数据集以及图像亮度低、特征提取困难等问题。所述方法包括如下步骤:构建结合侧窗盒式滤波和生成对抗网络优点的日夜转换模型;合成夜间道路场景语义分割数据集;构建夜间道路场景语义分割方法的训练数据集;构建自适应图像增强网络;对训练数据集进行自适应图像增强并分割;通过交叉熵损失函数计算语义分割损失;获取夜间道路场景测试图像,将其输入至训练好的夜间道路场景语义分割模型,输出对应的语义分割结果。本发明缓解了夜间道路场景图像照明弱、细节不清楚等问题,同时提高了夜间道路场景的分割预测。
-
-
-
-
-