一种基于双目竞争的全盲立体图像质量评价方法

    公开(公告)号:CN105069794A

    公开(公告)日:2015-11-18

    申请号:CN201510492276.0

    申请日:2015-08-12

    CPC classification number: G06T2207/20081

    Abstract: 本发明公开了一种基于双目竞争的全盲立体图像质量评价方法,其包括训练阶段和测试阶段,在训练阶段和测试阶段均充分利用了双目竞争的特性,即获取了左视点图像和右视点图像各自的幅值图像中坐标位置相对应的子块的双目竞争能量、双目竞争方差和双目竞争熵,因此充分考虑到了立体视觉感知特性,有效地提高了客观评价结果与主观感知之间的相关性;通过无监督学习方式构造无失真高斯分布模型和失真高斯分布模型,这样避免了复杂的机器学习训练过程,降低了计算复杂度,并且本发明方法在训练阶段不需要预知各训练失真立体图像及其主观评价值,因此更加适用于实际的应用场合。

    一种无参考非对称失真立体图像客观质量评价方法

    公开(公告)号:CN104658001A

    公开(公告)日:2015-05-27

    申请号:CN201510103103.5

    申请日:2015-03-10

    Abstract: 本发明公开了一种无参考非对称失真立体图像客观质量评价方法,其先对待评价的非对称失真立体图像的左视点图像和右视点图像分别实施伽柏滤波器滤波和高斯滤波器滤波,得到各自的伽柏滤波图像和高斯滤波图像;接着通过模拟人眼视觉特性建立有效的非对称失真立体视觉感知特征融合的数学模型,根据数学模型得到待评价的非对称失真立体图像的左右视点特征融合图像;然后对左右视点特征融合图像进行局部二值化模式操作,得到局部二值化模式结构特征图像,采用直方图统计方法得到直方图统计特征向量;最后根据直方图统计特征向量,采用支持向量回归预测客观质量评价预测值;优点是能够有效地提高客观评价结果与主观感知的相关性。

    一种非对称失真立体图像客观质量评价方法

    公开(公告)号:CN104361583A

    公开(公告)日:2015-02-18

    申请号:CN201410581354.X

    申请日:2014-10-27

    CPC classification number: G06T7/593 G06T7/97 G06T2207/20221

    Abstract: 本发明公开了一种非对称失真立体图像客观质量评价方法,其对原始立体图像的左视点图像和右视点图像、待评价立体图像的左视点图像和右视点图像四幅图像分别实施梯度滤波和提取局部方差操作,得到各自的梯度幅值图像和局部方差图像;然后根据两幅左视点图像的局部方差图像计算左视点方差变化率图像,并根据两幅右视点图像的局部方差图像计算右视点方差变化率图像;再获取原始立体图像的左右视点特征融合图像和待评价立体图像的左右视点特征融合图像;最后通过计算两幅左右视点特征融合图像之间的相似度图像获取得到待评价立体图像的图像质量客观预测值;优点是充分利用了非对称失真的立体视觉特性,有效地提高了客观评价结果与主观感知的相关性。

    一种立体图像像素篡改定位的脆弱数字水印方法

    公开(公告)号:CN104361547A

    公开(公告)日:2015-02-18

    申请号:CN201410582769.9

    申请日:2014-10-27

    Abstract: 本发明公开了一种立体图像像素篡改定位的脆弱数字水印方法,其在数字水印嵌入端,利用人眼双目视觉感知的掩蔽特性即双目恰可觉察失真指导数字水印的嵌入,使立体图像透明性和水印嵌入容量达到很好的平衡,并且根据左右视点高五位图像信息和双目恰可失真模型作为MD5哈希函数的输入生成特征水印图像,接着采用自适应方法将水印信息嵌入到立体图像左右视点中,通过上述过程,保证了数字水印技术的安全性;在篡改定位过程中,提取受攻击后的立体图像高五位特征水印信息,然后提取受攻击后的立体图像的水印信息,比较这两类水印信息初步确定篡改定位,接着利用视差信息使篡改定位的准确性进一步加强,能够有效地对立体图像内容真实性及完整性进行认证。

    一种基于神经网络的单目图像深度预测方法

    公开(公告)号:CN109461177B

    公开(公告)日:2021-12-10

    申请号:CN201811147330.8

    申请日:2018-09-29

    Abstract: 本发明公开了一种基于神经网络的单目图像深度预测方法,其构建包括输入层、隐层和输出层的神经网络,隐层包括编码和解码网络框架,编码网络框架包括5个神经网络块、1个推理层和1个连接层,第1个和第2个神经网络块均由2个卷积层和1个最大池化层组成、第3个至第5个神经网络块均由3个卷积层和1个最大池化层组成、推理层包括2个带孔卷积神经网络,解码网络框架包括5个神经网络块、5个连接层、4个独立双线性上采样层,每个神经网络块由1个卷积层和1个双线性上采样层组成;将训练集中的单目图像输入到神经网络中进行训练;测试时将预测的单目图像输入到神经网络模型中进行预测,得到预测深度图像;优点是预测精度高,计算复杂度低。

    基于参数共享深度学习网络的立体图像视觉显著提取方法

    公开(公告)号:CN109977967B

    公开(公告)日:2020-12-25

    申请号:CN201910168092.7

    申请日:2019-03-06

    Abstract: 本发明公开了一种基于参数共享深度学习网络的立体图像视觉显著提取方法,其在训练阶段构建参数共享深度学习网络,其包括输入层、参数共享特征提取框架、显著图生成框架,参数共享特征提取框架由resnet‑50网络中的第1块resnet‑50卷积网络块、第2块resnet‑50卷积网络块、第3块resnet‑50卷积网络块、第4块resnet‑50卷积网络块、第5块resnet‑50卷积网络块依次设置组成,利用参数共享特征提取框架提取彩色图特征和视差图特征;在测试阶段利用参数共享深度学习网络训练模型对待测试的立体图像的左视点图像和左视差图像进行预测,得到人类注视预测图即视觉显著图像;优点是其提取的立体视觉特征符合显著语义,且其具有较强的提取稳定性和较高的提取准确性。

Patent Agency Ranking