-
公开(公告)号:CN114972107B
公开(公告)日:2024-07-26
申请号:CN202210663857.6
申请日:2022-06-14
Applicant: 福州大学
IPC: G06T5/92 , G06T5/50 , G06T7/00 , G06N3/0464 , G06N3/08
Abstract: 本发明提出一种基于多尺度堆叠式注意力网络的低照度图像增强方法,包括以下步骤:步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;步骤B:设计多尺度自适应融合堆叠式注意力网络作为低照度图像增强网络,该网络包含多尺度自适应特征融合模块,堆叠式注意力残差模块和傅里叶重建模块;步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。本发明能实现低照度图像增强,生成正常照度下的高质量图像。
-
公开(公告)号:CN117893446A
公开(公告)日:2024-04-16
申请号:CN202410080941.4
申请日:2024-01-19
Applicant: 福州大学
IPC: G06T5/73 , G06T5/60 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明涉及基于记忆查询Transformer的散焦图像去模糊方法;包括以下步骤:对散焦模糊图像和对应的清晰图像进行数据预处理,得到由散焦模糊图像和对应的清晰图像组成的训练数据集;设计基于记忆查询Transformer的散焦图像去模糊网络,该散焦图像去模糊网络由输入映射模块、基于记忆查询Transformer的去模糊网络和输出映射模块组成;设计用于优化网络的损失函数,使用训练数据集训练,学习散焦图像去模糊网络模型的最优参数,得到最终的散焦图像去模糊网络模型;将待测散焦模糊图像输入到训练好的散焦图像去模糊网络模型中,预测生成去除散焦模糊后的清晰图像。
-
公开(公告)号:CN117876706A
公开(公告)日:2024-04-12
申请号:CN202410050474.0
申请日:2024-01-12
Applicant: 福州大学
IPC: G06V10/44 , G06V10/774 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/0455 , G06N3/048 , G06N3/084
Abstract: 本发明提供一种基于CNN‑Transformer交叉融合的伪装目标检测方法,包括:进行数据预处理,包括数据配对、数据增强处理,得到训练数据集;设计由并行特征提取网络、多个交叉融合模块和金字塔式渐进聚合模块组成的基于CNN‑Transformer交叉融合的伪装目标检测网络;设计损失函数,指导步骤B所设计网络的参数优化;使用步骤A得到的训练数据集训练步骤B中的基于CNN‑Transformer交叉融合的伪装目标检测网络,得到训练好的基于CNN‑Transformer交叉融合的伪装目标检测模型;将待测图像输入训练好的基于CNN‑Transformer交叉融合的伪装目标检测模型,输出伪装目标的掩码图像。
-
公开(公告)号:CN117474855A
公开(公告)日:2024-01-30
申请号:CN202311412207.5
申请日:2023-10-30
Applicant: 福州大学
IPC: G06T7/00 , G06T7/11 , G06T5/50 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及基于混合CNN‑T和多区域特征的无参考屏幕图像质量评估方法。包括以下步骤:S1:对失真屏幕内容图像数据集中的数据进行数据预处理;S2:设计图像局部特征与全局特征提取模块;S3:设计双边特征交互模块,该模块能够增强局部特征和全局特征间的信息交流;S4:设计区域特征重要性计算模块,该模块通过动态调整不同区域特征的学习权重;S5:设计质量分数回归子网络和损失函数;S6:设计基于混合CNN‑Transformer和多区域特征重要性的无参考屏幕内容图像质量评估网络,并进行训练得到无参考屏幕内容图像质量评估模型;S7:将待测图像输入到训练好的基于混合CNN‑Transformer和多区域特征重要性的无参考屏幕内容图像质量评估模型中,输出对应的质量评估分数。
-
公开(公告)号:CN113658074B
公开(公告)日:2023-07-28
申请号:CN202110938534.9
申请日:2021-08-16
Applicant: 福州大学
IPC: G06T5/00 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明提出基于LAB颜色空间多尺度融合网络的单幅图像雨滴去除方法,包括以下步骤;步骤A:根据同场景下的原始附着雨滴退化状态和干净状态生成训练图像对,针对训练图像对进行颜色空间变换,得到对应LAB颜色空间的训练图像对;步骤B:对训练图像对进行预处理,得到LAB颜色空间的图像块数据集;步骤C:基于图像对在LAB颜色空间上的特性,利用多尺度学习策略设计单幅图像雨滴去除的卷积神经网络;步骤D:设计目标损失函数loss,以图像块数据集为训练数据,利用反向传播方法计算卷积神经网络中各参数的梯度,利用随机梯度下降方法更新参数;步骤E:以图像雨滴去除网络生成雨滴去除之后的图像,恢复至RGB颜色空间;本发明能显著提高图像雨滴去除的性能。
-
公开(公告)号:CN115209122B
公开(公告)日:2023-07-07
申请号:CN202210887485.5
申请日:2022-07-26
Applicant: 福州大学
IPC: H04N13/106 , H04N13/111
Abstract: 本发明涉及一种基于多智能体的立体图像视觉舒适度增强方法及系统,该方法包括:对高质量立体图像对的左、右视图分别进行变换扰动,合成视觉不舒适的立体图像对,并将原始高质量立体图像对作为参考图像对;构建基于注意力机制的立体图像特征增强融合网络,该网络采用多阶段结构设计,在不同阶段增强融合左、右视图不同尺度的特征;构建双智能体的强化学习架构,分别用于预测左视图和右视图四个角的偏移量,进而计算得到变换矩阵,并将变换矩阵应用于左、右视图;利用合成的立体图像对和参考图像对双智能体进行训练;通过训练后的双智能体对待调整的立体图像对进行变换调整,以提高其视觉舒适度。该方法及系统能够显著增强立体图像的视觉舒适度。
-
公开(公告)号:CN116385932A
公开(公告)日:2023-07-04
申请号:CN202310356360.4
申请日:2023-04-06
Applicant: 福州大学
Abstract: 本发明提供了结合卷积和注意力的时空融合视频质量评价方法,包括以下步骤:步骤S1:将视频质量评价数据集中的数据集进行预处理,使其大小一致,并划分训练集和测试集;步骤S2:设计结合卷积和注意力机制的空间特征提取网络;步骤S3:设计结合卷积和注意力的时间特征提取网络;步骤S4:设计基于注意力机制的时空特征融合网络;步骤S5:将视频分别送入设计好的空间特征提取网络和时间特征提取网络进行训练;步骤S6:将所提取的空间特征和时间特征送入时空特征融合网络,训练并保存时空特征融合网络。步骤S7:将测试视频送入空间特征提取网络和时间特征提取网络,然后将时间和空间特征送入时空特征融合网络得到视频的质量评估分数。
-
公开(公告)号:CN116128807A
公开(公告)日:2023-05-16
申请号:CN202211554537.3
申请日:2022-12-05
Applicant: 福州大学
IPC: G06T7/00 , G06T5/50 , G06V10/774 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及基于多尺度特征融合的无参考图像质量评价方法,包括以下步骤:步骤S1:将失真图像数据集中的数据进行数据预处理;步骤S2:设计多尺度特征融合模块;步骤S3:设计通道注意力模块;步骤S4:设计基于多尺度特征融合的无参考图像质量评分预测网络,使用所设计的网络训练基于多尺度特征融合的无参考图像质量评分预测网络模型;步骤S5:将图像输入到训练好的基于多尺度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。该算法能有效的融合多尺度图像的特征,且不用对原图做裁切或改变其原始比例,并进行图像质量评分分数预测,提高无参考图像质量评估算法的性能。
-
公开(公告)号:CN115797629A
公开(公告)日:2023-03-14
申请号:CN202211502719.6
申请日:2022-11-28
Applicant: 福州大学
IPC: G06V10/26 , G06V10/764 , G06V10/766 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/084
Abstract: 本发明提出一种基于检测增强和多阶段边界框特征细化的实例分割方法,包括以下步骤:对训练集中图像进行包括数据增强和标准化处理的数据预处理;构建解耦分类与回归的双分支目标检测头;构建多阶段细化与增强空间空洞融合模块的实例分割头,利用目标检测头的边界框特征多阶段地对实例分割头的细化过程进行增强;构建基于检测增强和多阶段边界框特征细化的实例分割网络;利用训练集中图像对实例分割网络进行训练,生成实例分割结果并计算损失函数,反向传播优化整个网络的参数,得到训练好的实例分割网络;将待处理图像输入训练好的实例分割网络,得到实例分割结果。该方法能够通过目标检测来提升实例分割的性能,并生成高质量的实例分割掩码。
-
公开(公告)号:CN112884682B
公开(公告)日:2023-02-21
申请号:CN202110022806.0
申请日:2021-01-08
Applicant: 福州大学
IPC: G06T5/50 , G06T5/00 , G06N3/0464 , G06N3/0455 , G06N3/048 , G06N3/084
Abstract: 本发明涉及一种基于匹配与融合的立体图像颜色校正方法及系统,该方法包括:S1、建立包括无失真立体图像和失真立体图像的训练集;S2、构建基于视差注意力的颜色校正初始模型及其损失函数,训练得到训练好的颜色校正初始模型,利用其对目标图像进行初步颜色校正得到初始校正图;S3、利用光流网络计算从初始校正图到参考图像的光流,并对参考图像进行图像变形和空洞填充得到匹配目标图;S4、构建基于U‑net模型架构的图像融合网络模型及其损失函数,训练得到训练好的图像融合网络模型;S5、利用步骤S2到S4训练好的模型对待校正的失真立体图像进行颜色校正。该方法及系统有利于快速高效地校正立体图像左右视图间的颜色差异。
-
-
-
-
-
-
-
-
-