-
公开(公告)号:CN108428227A
公开(公告)日:2018-08-21
申请号:CN201810160507.1
申请日:2018-02-27
Applicant: 浙江科技学院
Inventor: 周武杰 , 张爽爽 , 师磊磊 , 潘婷 , 顾鹏笠 , 蔡星宇 , 邱薇薇 , 何成 , 陈芳妮 , 葛丁飞 , 金国英 , 孙丽慧 , 郑卫红 , 李鑫 , 吴洁雯 , 王昕峰 , 施祥
Abstract: 本发明公开了一种基于全卷积神经网络的无参考图像质量评价方法,其采用全参考图像质量评价方法获得训练集中的每幅失真图像的客观真实质量图作为监督,对训练集中的所有失真图像的归一化图像进行训练,得到最优的全卷积神经网络回归训练模型,再将待评价的失真图像的归一化图像输入到最优的全卷积神经网络回归训练模型中,预测得到待评价的失真图像的客观质量评价预测质量图,使用待评价的失真图像的显著图对客观质量评价预测质量图进行加权池化,从而得到客观质量评价预测值,由于结合了失真图像的全参考特征、显著性特征等多种特征,并且这些特征能比较准确地描述失真图像,因而有效地提高了客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN107274388A
公开(公告)日:2017-10-20
申请号:CN201710363127.3
申请日:2017-05-22
Applicant: 浙江科技学院
Inventor: 周武杰 , 邱薇薇 , 周扬 , 赵颖 , 何成 , 迟梁 , 陈芳妮 , 吴茗蔚 , 葛丁飞 , 金国英 , 孙丽慧 , 陈寿法 , 郑卫红 , 李鑫 , 吴洁雯 , 王昕峰 , 施祥
CPC classification number: G06T7/0002 , G06T7/44 , G06T2207/30168
Abstract: 本发明公开了一种基于全局信息的无参考屏幕图像质量评价方法,其对失真屏幕图像实施Gabor滤波,得到多尺度和多方向下的Gabor幅值图像和Gabor相位图像;然后采用CLBP操作对多尺度和多方向下的Gabor幅值图像进行处理,得到CLBP特征图像;并采用LPQ操作对多尺度和多方向下的Gabor相位图像进行处理,得到LPQ特征图像;接着计算CLBP特征图像与对应的LPQ特征图像的联合概率函数值;再获取CLBP特征图像和LPQ特征图像各自的条件概率统计特征向量;最后利用支持向量回归技术,预测得到失真屏幕图像的客观质量评价预测值;优点是能够充分考虑到全局信息变化对视觉质量的影响,从而能够提高客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN106023152A
公开(公告)日:2016-10-12
申请号:CN201610301295.5
申请日:2016-05-09
Applicant: 浙江科技学院
IPC: G06T7/00
CPC classification number: G06T7/0002 , G06T2207/10021 , G06T2207/20081 , G06T2207/30168
Abstract: 本发明公开了一种无参考立体图像质量客观评价方法,其在训练阶段,通过获取每幅原始的无失真立体图像的双目竞争响应特征图与该幅原始的无失真立体图像对应的每幅失真立体图像的双目竞争响应特征图之间的相似度图像,及每幅原始的无失真立体图像对应的每幅失真立体图像的双目竞争响应特征图的局部二值化模式的直方图特征向量,得到视觉字典质量对照表;在测试阶段,对于任意一幅失真立体图像,先获取该失真立体图像对应的直方图特征向量,然后根据已构造的视觉字典质量对照表,获取该失真立体图像的客观质量评价预测值;优点是降低了计算复杂度,且由于充分考虑了立体视觉感知特性,因此能有效地提高客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN105574901A
公开(公告)日:2016-05-11
申请号:CN201610030704.2
申请日:2016-01-18
Applicant: 浙江科技学院
Inventor: 周武杰 , 邱薇薇 , 王海文 , 王中鹏 , 周扬 , 吴茗蔚 , 葛丁飞 , 施祥 , 王新华 , 孙丽慧 , 陈寿法 , 郑卫红 , 李鑫 , 吴洁雯 , 王昕峰 , 金国英 , 王建芬
IPC: G06T7/40
CPC classification number: G06T2207/20081
Abstract: 本发明公开了一种基于局部对比度模式的通用无参考图像质量评价方法,其在训练阶段获取每幅无失真图像的8幅方向信息图像和1幅无方向信息图像各自的局部二值化模式特征图像的直方图统计特征向量,将所有直方图统计特征向量组成字典学习特征矩阵;在测试阶段获取待评价的失真图像的8幅方向信息图像和1幅无方向信息图像各自的局部二值化模式特征图像的直方图统计特征向量,将所有直方图统计特征向量组成特征向量,然后根据字典学习特征矩阵和特征向量,并利用稀疏算法,获取视觉感知稀疏特征向量,接着利用支持向量回归,并根据视觉感知稀疏特征向量,预测得到客观质量评价预测值;优点是能够有效地提高客观评价结果与主观感知之间的相关性。
-
公开(公告)号:CN105069794A
公开(公告)日:2015-11-18
申请号:CN201510492276.0
申请日:2015-08-12
Applicant: 浙江科技学院
IPC: G06T7/00
CPC classification number: G06T2207/20081
Abstract: 本发明公开了一种基于双目竞争的全盲立体图像质量评价方法,其包括训练阶段和测试阶段,在训练阶段和测试阶段均充分利用了双目竞争的特性,即获取了左视点图像和右视点图像各自的幅值图像中坐标位置相对应的子块的双目竞争能量、双目竞争方差和双目竞争熵,因此充分考虑到了立体视觉感知特性,有效地提高了客观评价结果与主观感知之间的相关性;通过无监督学习方式构造无失真高斯分布模型和失真高斯分布模型,这样避免了复杂的机器学习训练过程,降低了计算复杂度,并且本发明方法在训练阶段不需要预知各训练失真立体图像及其主观评价值,因此更加适用于实际的应用场合。
-
公开(公告)号:CN104658001A
公开(公告)日:2015-05-27
申请号:CN201510103103.5
申请日:2015-03-10
Applicant: 浙江科技学院
IPC: G06T7/00
Abstract: 本发明公开了一种无参考非对称失真立体图像客观质量评价方法,其先对待评价的非对称失真立体图像的左视点图像和右视点图像分别实施伽柏滤波器滤波和高斯滤波器滤波,得到各自的伽柏滤波图像和高斯滤波图像;接着通过模拟人眼视觉特性建立有效的非对称失真立体视觉感知特征融合的数学模型,根据数学模型得到待评价的非对称失真立体图像的左右视点特征融合图像;然后对左右视点特征融合图像进行局部二值化模式操作,得到局部二值化模式结构特征图像,采用直方图统计方法得到直方图统计特征向量;最后根据直方图统计特征向量,采用支持向量回归预测客观质量评价预测值;优点是能够有效地提高客观评价结果与主观感知的相关性。
-
公开(公告)号:CN104361583A
公开(公告)日:2015-02-18
申请号:CN201410581354.X
申请日:2014-10-27
Applicant: 浙江科技学院
IPC: G06T7/00
CPC classification number: G06T7/593 , G06T7/97 , G06T2207/20221
Abstract: 本发明公开了一种非对称失真立体图像客观质量评价方法,其对原始立体图像的左视点图像和右视点图像、待评价立体图像的左视点图像和右视点图像四幅图像分别实施梯度滤波和提取局部方差操作,得到各自的梯度幅值图像和局部方差图像;然后根据两幅左视点图像的局部方差图像计算左视点方差变化率图像,并根据两幅右视点图像的局部方差图像计算右视点方差变化率图像;再获取原始立体图像的左右视点特征融合图像和待评价立体图像的左右视点特征融合图像;最后通过计算两幅左右视点特征融合图像之间的相似度图像获取得到待评价立体图像的图像质量客观预测值;优点是充分利用了非对称失真的立体视觉特性,有效地提高了客观评价结果与主观感知的相关性。
-
公开(公告)号:CN104361547A
公开(公告)日:2015-02-18
申请号:CN201410582769.9
申请日:2014-10-27
Applicant: 浙江科技学院
IPC: G06T1/00
Abstract: 本发明公开了一种立体图像像素篡改定位的脆弱数字水印方法,其在数字水印嵌入端,利用人眼双目视觉感知的掩蔽特性即双目恰可觉察失真指导数字水印的嵌入,使立体图像透明性和水印嵌入容量达到很好的平衡,并且根据左右视点高五位图像信息和双目恰可失真模型作为MD5哈希函数的输入生成特征水印图像,接着采用自适应方法将水印信息嵌入到立体图像左右视点中,通过上述过程,保证了数字水印技术的安全性;在篡改定位过程中,提取受攻击后的立体图像高五位特征水印信息,然后提取受攻击后的立体图像的水印信息,比较这两类水印信息初步确定篡改定位,接着利用视差信息使篡改定位的准确性进一步加强,能够有效地对立体图像内容真实性及完整性进行认证。
-
公开(公告)号:CN109461177B
公开(公告)日:2021-12-10
申请号:CN201811147330.8
申请日:2018-09-29
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于神经网络的单目图像深度预测方法,其构建包括输入层、隐层和输出层的神经网络,隐层包括编码和解码网络框架,编码网络框架包括5个神经网络块、1个推理层和1个连接层,第1个和第2个神经网络块均由2个卷积层和1个最大池化层组成、第3个至第5个神经网络块均由3个卷积层和1个最大池化层组成、推理层包括2个带孔卷积神经网络,解码网络框架包括5个神经网络块、5个连接层、4个独立双线性上采样层,每个神经网络块由1个卷积层和1个双线性上采样层组成;将训练集中的单目图像输入到神经网络中进行训练;测试时将预测的单目图像输入到神经网络模型中进行预测,得到预测深度图像;优点是预测精度高,计算复杂度低。
-
公开(公告)号:CN109977967B
公开(公告)日:2020-12-25
申请号:CN201910168092.7
申请日:2019-03-06
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于参数共享深度学习网络的立体图像视觉显著提取方法,其在训练阶段构建参数共享深度学习网络,其包括输入层、参数共享特征提取框架、显著图生成框架,参数共享特征提取框架由resnet‑50网络中的第1块resnet‑50卷积网络块、第2块resnet‑50卷积网络块、第3块resnet‑50卷积网络块、第4块resnet‑50卷积网络块、第5块resnet‑50卷积网络块依次设置组成,利用参数共享特征提取框架提取彩色图特征和视差图特征;在测试阶段利用参数共享深度学习网络训练模型对待测试的立体图像的左视点图像和左视差图像进行预测,得到人类注视预测图即视觉显著图像;优点是其提取的立体视觉特征符合显著语义,且其具有较强的提取稳定性和较高的提取准确性。
-
-
-
-
-
-
-
-
-