一种基于图像检索的显著性检测元评估方法

    公开(公告)号:CN107240107A

    公开(公告)日:2017-10-10

    申请号:CN201710522580.4

    申请日:2017-06-30

    Applicant: 福州大学

    CPC classification number: G06T7/11 G06T7/44 G06T7/90

    Abstract: 本发明涉及一种基于图像检索的显著性检测元评估方法,包括以下步骤:分别以用户标注的显著性图和T种显著性检测算法生成的显著性图作为权重计算输入图像的加权颜色直方图,并利用基于内容的图像检索方法获取检索图像,分别得到检索序列和;分别计算检索序列和的相似性值,排序得到图像检索应用对T种显著性检测算法的评估排序序列;分别计算显著性检测评估方法对T种显著性检测算法的评估值,排序得到显著性检测评估方法对T种显著性检测算法的评估排序序列;计算序列与的相关性;取图像集中所有输入图像的相关性的平均值作为显著性检测评估方法的评估值。该方法有利于为实际应用选出合适有效的显著性检测评估方法。

    一种基于机器学习的颜色校正评估方法

    公开(公告)号:CN105678775B

    公开(公告)日:2017-03-08

    申请号:CN201610017543.3

    申请日:2016-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于机器学习的颜色校正评估方法,包括以下步骤:S1:输入参考图像和目标图像,目标图像即为失真图像,采用基于图像配准的全参考图像质量评估方法对目标图像进行特征提取,获得特征集F1;S2:采用图像重定向评估方法对目标图像进行特征提取,获得特征集F2;S3:综合特征集F1和F2,将其作为机器学习算法的特征集F,并通过机器学习算法和三等分交叉验证方法学习得出客观评估模型;S4:采用客观评估模型对目标图像进行客观评估,得到最终的目标图像的质量评估得分值。该方法可有效的对图像间颜色一致性进行评估,与用户主观感知之间具有较高的相关性与准确性。

    基于机器学习并融合视觉特征的全参考图像质量评估方法

    公开(公告)号:CN105574885B

    公开(公告)日:2017-03-08

    申请号:CN201610017544.8

    申请日:2016-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于机器学习并融合视觉特征的全参考图像质量评估方法,包括以下步骤:分别采用客观全参考图像质量评估方法、结合图像显著性分布的客观全参考图像质量评估方法、结合局部图像质量排序的客观全参考图像质量评估方法、结合局部图像质量数据统计的客观全参考图像质量评估方法对目标图像提取特征,获得特征集F1、F2、F3和F4;综合特征集F1、F2、F3和F4,将其作为机器学习算法的特征集T,通过机器学习算法和三等分交叉验证方法学习得出客观评估模型;采用客观评估模型对图像进行质量评估,得到客观全参考图像质量评估得分值。该方法可有效的对全参考图像的质量进行评估,与用户主观评分之间具有较好的相关性与准确性。

    一种基于教师学生网络互教互学的半监督伪装目标检测方法

    公开(公告)号:CN119942077A

    公开(公告)日:2025-05-06

    申请号:CN202510032796.7

    申请日:2025-01-09

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于教师学生网络互教互学的半监督伪装目标检测方法。包括:进行数据预处理,进行训练数据集和验证数据集的划分,然后对训练的数据进行数据增强处理,得到训练数据集;设计基于教师学生网络互教互学的半监督伪装目标检测框架,该框架由一个学生分割网络和一个教师分割网络组成;设计损失函数,指导步骤B所设计框架的参数优化;使用步骤A得到的训练数据集训练步骤B中的基于教师学生网络互教互学的半监督伪装目标检测框架,得到训练好的学生分割网络;将待测图像输入训练好的学生分割网络,输出伪装目标的掩码图像。

    基于线性稀疏注意力Transformer的视频去摩尔纹方法

    公开(公告)号:CN114881888B

    公开(公告)日:2024-09-06

    申请号:CN202210649880.X

    申请日:2022-06-10

    Applicant: 福州大学

    Abstract: 本发明提出一种基于线性稀疏注意力Transformer的视频去摩尔纹方法,训练基于线性稀疏注意力Transformer的视频去摩尔纹网络,以实现在训练完成后对输入的视频去除摩尔纹;所述基于线性稀疏注意力Transformer的视频去摩尔纹网络包括:特征提取模块,用于对视频帧进行特征提取;空间Transformer模块、时间Transformer模块以及,图像重建模块,用于将经过空间Transformer模块和时间Transformer模块的视频帧特征进行解码,恢复成与输入视频尺度相同的去摩尔纹视频帧。

    融合局部和全局特征的无参考图像质量评价方法及系统

    公开(公告)号:CN114742774B

    公开(公告)日:2024-09-06

    申请号:CN202210326356.9

    申请日:2022-03-30

    Applicant: 福州大学

    Inventor: 牛玉贞 赖宇

    Abstract: 本发明涉及一种融合局部和全局特征的无参考图像质量评价方法及系统,该方法包括以下步骤:步骤S1:对失真图像数据集中的图像进行数据预处理,并将数据集划分为训练集与测试集;步骤S2:构建全局及局部图像坐标提取模块;步骤S3:构建时间注意力机制模块;步骤S4:构建融合局部和全局图像特征的无参考图像质量评价网络,并采用训练集训练所述无参考图像质量评价网络;步骤S5:将测试集中图像输入到训练好的无参考图像质量评价网络模型中,输出对应的图像质量评价结果。该方法及系统有利于提高无参考图像质量评价的准确性。

    基于频域感知与调和的多退化低照度图像增强方法

    公开(公告)号:CN118469884A

    公开(公告)日:2024-08-09

    申请号:CN202410628686.2

    申请日:2024-05-21

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于频域感知与调和的多退化低照度图像增强方法。包括:对输入图像进行预处理,包括图像配对、裁剪和数据增强处理,以得到训练数据集;设计一个基于频域感知与调和的多退化低照度图像增强网络,由输入映射层、三阶段编码器、瓶颈层、三阶段解码器以及输出映射层组成;设计损失函数;使用训练数据集训练基于频域感知与调和的多退化低照度图像增强网络;将待测图像输入到该网络中,利用训练好的网络生成正常照度的清晰图像。本发明利用频域感知解耦不同类型的退化,并通过调和方式加强局部和全局处理之间的联系,有助于促进模型在现实世界低光照场景中出现的复杂未知退化问题的泛化性,实现高保真度的场景重现和增强效果。

    基于频率域高低频交叉融合的图像耀斑去除方法

    公开(公告)号:CN117893865A

    公开(公告)日:2024-04-16

    申请号:CN202410050035.X

    申请日:2024-01-12

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于频率域高低频交叉融合的图像耀斑去除方法。包括:进行数据预处理,得到训练数据集;设计信息采集模块提取耀斑图像频率域高频特征和频率域低频特征;设计信息交互模块对耀斑图像的频率域高频特征和频率域低频特征进行初步交叉融合;设计信息融合模块,深度融合耀斑图像的频率域高频特征和频率域低频特征;设计耀斑去除网络,该网络由信息采集模块、信息交互模块以及信息融合模块组成;设计用于指导所设计网络参数优化的损失函数;使用训练数据集训练耀斑去除网络,得到训练好的基于频率域高低频交叉融合的图像耀斑去除模型;将待测耀斑图像输入训练好的基于频率域高低频交叉融合的图像耀斑去除模型中,预测生成去耀斑图像。

    基于视差校正和选择融合的双像素散焦图像去模糊方法

    公开(公告)号:CN117522736A

    公开(公告)日:2024-02-06

    申请号:CN202311517957.9

    申请日:2023-11-15

    Applicant: 福州大学

    Abstract: 本发明涉及基于视差校正和选择融合的双像素散焦图像去模糊方法。包括:对散焦模糊图像左、右视图和对应的清晰图像进行数据预处理;设计基于视差校正和选择融合的双像素散焦图像去模糊网络;设计用于优化网络的损失函数,使用训练数据集训练,学习双像素散焦图像去模糊网络模型的最优参数,得到最终的双像素散焦图像去模糊网络模型;将待测散焦模糊图像左、右视图输入到双像素散焦图像去模糊网络模型中,预测生成去除散焦模糊后的清晰图像。本发明通过对齐双像素散焦图像中左、右视图,同时考虑左、右视图清晰区域对图像重建的重要性,有效地去除双像素图像散焦模糊。

    基于多层注意力和BiGRU的专业立体视频舒适度分类方法

    公开(公告)号:CN112613486B

    公开(公告)日:2023-08-08

    申请号:CN202110016985.7

    申请日:2021-01-07

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于多层注意力和BiGRU的专业立体视频舒适度分类方法。包括以下步骤:1、对训练视频集合和待预测视频集合进行场景分割并通过预处理得到视差图;2、进行帧级处理得到初步帧级特征;3、进行帧级注意力处理得到最终帧级特征;4、进行镜头级处理得到初步镜头级特征;5、进行镜头级注意力处理得到最终镜头级特征;6、双流融合,使用通道注意力对上一步输出进行融合得到最终的隐藏状态;7、最终的隐藏状态经过分类网络输出分类概率并将专业立体视频分类为适合儿童观看或仅适合成人观看。8、将待测试视频集合中立体视频的左视图和对应的视差图输入训练好的模型中进行分类。本发明能有效分辨专业立体视频是否适合儿童观看。

Patent Agency Ranking