-
公开(公告)号:CN108510485B
公开(公告)日:2022-04-05
申请号:CN201810261969.2
申请日:2018-03-27
Applicant: 福州大学
IPC: G06T7/00
Abstract: 本发明涉及一种基于卷积神经网络的无参照图像质量评估方法,包括以下步骤:步骤S1:对训练图像集合中的训练图像进行局部归一化处理;步骤S2:将所述训练图像有重叠的划分成不同尺度的图块;步骤S3:使用卷积神经网络学习不同尺度图块的特征,并将多个不同尺度上生成的特征输入到三个全连接层来学习图块的质量评估分数;步骤S4:利用训练好的卷积神经网络预测待预测图像的所有图块的质量评估分数,计算待预测图像所有图块的平均质量评估分数作为图像最终的质量评估分数。该算法综合考虑了图像在不同尺度上的特征,能显著提高基于卷积神经网络的无参照图像质量评估性能。
-
公开(公告)号:CN111242846B
公开(公告)日:2022-03-22
申请号:CN202010013198.2
申请日:2020-01-07
Applicant: 福州大学
Abstract: 本发明涉及一种基于非局部增强网络的细粒度尺度图像超分辨率方法,该方法包括以下步骤:步骤A:对原始高分辨率训练图像进行预处理,得到不同尺度的低质量的高分辨率图像块和原始高分辨率训练图像块组成的图像块对数据集;步骤B:使用图像块对数据集训练非局部增强的深度网络;步骤C:将低质量测试图像的高分辨率图像输入到深度网络进行重建,得到超分辨率结果。该方法使用非局部增强的深层残差结构,通过将非局部操作与普通卷积相结合,可以有效地捕获并利用局部和非局部图像属性进行图像超分辨率,对比现有超分辨率模型,该方法能显著提高图像超分辨率在细粒度尺度上的性能。
-
公开(公告)号:CN113657380A
公开(公告)日:2021-11-16
申请号:CN202110944392.7
申请日:2021-08-17
Applicant: 福州大学
Abstract: 本发明提出融合多模态注意力机制的图像美学质量评价方法,包括以下步骤;步骤S1:对美学图像数据集中的数据进行数据预处理,提取美学图像所对应文本的文本特征,并将数据集划分为训练集与测试集;步骤S2:设计融合文本特征和图像特征的多模态注意力机制模块;步骤S3:设计融合多模态注意力机制的图像美学评分分布预测网络,使用该网络训练融合多模态注意力机制的图像美学评分分布预测网络模型;步骤S4:将图像输入到融合多模态注意力机制的图像美学评分分布预测网络模型中,输出对应的图像美学评分分布,最后计算美学评分分布的平均值作为图像美学质量分数;本发明能实现视觉特征与美学文本特征相互指导与融合,提高图像美学质量评估方法的性能。
-
公开(公告)号:CN112884682A
公开(公告)日:2021-06-01
申请号:CN202110022806.0
申请日:2021-01-08
Applicant: 福州大学
Abstract: 本发明涉及一种基于匹配与融合的立体图像颜色校正方法及系统,该方法包括:S1、建立包括无失真立体图像和失真立体图像的训练集;S2、构建基于视差注意力的颜色校正初始模型及其损失函数,训练得到训练好的颜色校正初始模型,利用其对目标图像进行初步颜色校正得到初始校正图;S3、利用光流网络计算从初始校正图到参考图像的光流,并对参考图像进行图像变形和空洞填充得到匹配目标图;S4、构建基于U‑net模型架构的图像融合网络模型及其损失函数,训练得到训练好的图像融合网络模型;S5、利用步骤S2到S4训练好的模型对待校正的失真立体图像进行颜色校正。该方法及系统有利于快速高效地校正立体图像左右视图间的颜色差异。
-
公开(公告)号:CN112801906A
公开(公告)日:2021-05-14
申请号:CN202110146982.5
申请日:2021-02-03
Applicant: 福州大学
Abstract: 本发明涉及一种基于循环神经网络的循环迭代图像去噪方法,包括以下步骤:步骤S1:获取成对的原始噪声图像和无噪声图像并预处理,得到用于训练的噪声图像和无噪声图像的成对图像块;步骤S2:构建基于循环神经网络的循环迭代图像去噪网络,并使用噪声图像和无噪声图像的成对图像块训练;步骤S3:将待测原始噪声图像输入训练后的去噪网络,得到去噪图像。本发明通过循环迭代的方式将噪声去除的更干净的同时保留更多的图像细节,从而有效地重建去噪图像。
-
公开(公告)号:CN112767451A
公开(公告)日:2021-05-07
申请号:CN202110134261.2
申请日:2021-02-01
Applicant: 福州大学
Abstract: 本发明涉及一种基于双流卷积神经网络的人群分布预测方法及其系统。该方法包括:对从视频中提取的待训练图像序列进行数据预处理,归一化图像序列及其对应的人群密度图序列;设计双流卷积神经网络结构,包括F2D‑Net子网络、D2D‑Net子网络、融合模块;使用归一化图像序列中的最后两张图像计算光流,将光流映射到最后一张归一化图像对应的人群密度图作为光流法预测的密度图,并将其与两个子网络预测的特征通过融合模块融合的特征图进行融合,生成未来的人群分布密度图;对所设计网络设计损失函数,使用所设计网络训练人群分布预测模型;利用训练好的人群分布预测模型预测未来的人群分布密度图并估计人群数量。本发明可以预测未来的人群分布、估计未来人群数量。
-
公开(公告)号:CN112767386A
公开(公告)日:2021-05-07
申请号:CN202110134073.X
申请日:2021-02-01
Applicant: 福州大学
Abstract: 本发明涉及一种基于主题特征和评分分布的图像美学质量评价方法及系统。该方法包括:将美学图像数据集中的数据进行预处理,划分为训练集与测试集,并为训练集中的每个图像创建对应的主题;设计图像主题特征分类网络、图像美学评分分布预测网络,并训练图像主题分类模型、美学评分分布预测模型;设计图像主题特征分类与美学评分分布预测的多任务网络,将图像主题分类模型与美学评分分布预测模型通过层特征融合连接起来,并训练多任务模型;将图像输入到多任务模型,输出对应的美学评分分布与主题特征,最后计算美学评分分布的平均值作为图像美学质量分数。本发明能同时进行图像的主题特征预测与美学评分分布预测,并提高图像美学质量评估算法性能。
-
公开(公告)号:CN112767279A
公开(公告)日:2021-05-07
申请号:CN202110134075.9
申请日:2021-02-01
Applicant: 福州大学
Abstract: 本发明涉及一种基于离散小波集成生成对抗网络的水下图像增强方法。包括:将待训练的数据进行配对处理、数据增强、归一化处理,然后缩放到固定尺寸,将标签图像,即真实的水下图像增强结果,下采样生成不同尺寸图像;设计多层次图像增强生成网络,使用所设计的网络训练可对水下图像进行增强的图像增强模型;设计多层次图像鉴别神经网络,使用所设计的网络训练可预测输入图像为真实图像概率的图像鉴别模型;设计生成网络和鉴别神经网络目标损失函数;使用配对的图像交替训练生成网络和鉴别神经网络收敛到纳什平衡;将水下图像输入训练好的图像增强生成模型,输出增强后的图像。本发明解决了水下图像颜色失真、模糊的问题,能显著提升水下图像质量。
-
公开(公告)号:CN112613486A
公开(公告)日:2021-04-06
申请号:CN202110016985.7
申请日:2021-01-07
Applicant: 福州大学
Abstract: 本发明涉及一种基于多层注意力和BiGRU的专业立体视频舒适度分类方法。包括以下步骤:1、对训练视频集合和待预测视频集合进行场景分割并通过预处理得到视差图;2、进行帧级处理得到初步帧级特征;3、进行帧级注意力处理得到最终帧级特征;4、进行镜头级处理得到初步镜头级特征;5、进行镜头级注意力处理得到最终镜头级特征;6、双流融合,使用通道注意力对上一步输出进行融合得到最终的隐藏状态;7、最终的隐藏状态经过分类网络输出分类概率并将专业立体视频分类为适合儿童观看或仅适合成人观看。8、将待测试视频集合中立体视频的左视图和对应的视差图输入训练好的模型中进行分类。本发明能有效分辨专业立体视频是否适合儿童观看。
-
公开(公告)号:CN111723822A
公开(公告)日:2020-09-29
申请号:CN202010570806.X
申请日:2020-06-20
Applicant: 福州大学
Abstract: 本发明涉及一种基于多层次融合的RGBD图像显著性检测方法及系统,包括:步骤S1:进行数据增强,同时对彩色图像以及对应的深度图和人工标注图进行处理;步骤S2:设计多层次卷积神经网络结构,提取并融合深度图与彩色图像特征,融合多层次的特征,得到各个层次预测的显著性图Sk;步骤S3:设计一个融合优化模块,然后融合各个层次的显著性图Sk,得到最终的显著性图Sfinal;步骤S4:通过求解最小化损失函数,学习到RGBD图像显著性检测模型的最优参数,得到训练好的RGBD图像显著性检测模型;步骤S5:最后,将RGBD图像输入训练好的模型,计算得到输入图像的显著性检测结果,即显著性图。本发明解决了RGBD图像显著性检测边缘粗糙问题,能显著提升RGBD图像显著性检测的性能。
-
-
-
-
-
-
-
-
-