一种基于双目最小可辨失真模型的立体视频质量评价方法

    公开(公告)号:CN102523477B

    公开(公告)日:2014-02-12

    申请号:CN201110391478.8

    申请日:2011-12-01

    Applicant: 上海大学

    Abstract: 本发明公开了一种基于双目最小可辨失真模型的立体视频质量评价方法,该方法首先建立双目立体亮度关系模型,研究左右视点视频各自的像素亮度与融合为立体视频时的亮度关系;根据背景亮度和纹理掩盖建立立体图像JND模型,根据视频帧间掩盖的可视阈值建立立体视频的JND模型;由基于空间-时间对比灵敏度函数和显示设备的相关参数获得基于空间-时间对比灵敏度函数的可视阈值;然后由立体视频的JND模型和基于于空间-时间对比灵敏度函数的可视阈值组合得到双眼的JND模型;最后建立基于立体视频质量的双目感知峰值信噪比对立体视频质量评价。该方法基于双目的JND模型,使立体视频质量的评价与人眼的视觉主观感知的视频质量相一致,正确反映人眼视觉的主观立体视频感知质量。

    一种双目立体视频的深度图像估计方法

    公开(公告)号:CN102523464A

    公开(公告)日:2012-06-27

    申请号:CN201110410504.7

    申请日:2011-12-12

    Applicant: 上海大学

    Abstract: 本发明公开了一种双目立体视频的深度图像估计方法。它包括如下操作步骤:(1)从双目立体摄像机上采集双目立体视频图像;(2)对双目立体视频图像进行基于图割立体匹配的视差估计;(3)对图割立体匹配得到的视差图像进行一致性检查,采用自适应匹配删除不可靠的匹配,减小深度图像的误匹配;(4)根据视差与深度之间的关系,把视差图像转为深度图像;(5)采用多边滤波器对得到深度图像进行矫正优化;(6)输出深度图像,完成双目立体视频深度图像估计。本发明有效地消除了深度图像估计中的错误,最终能获得一个准确且稠密的深度图像,从而满足基于真实场景重建图像质量的要求。

    一种基于双目最小可辨失真模型的立体视频质量评价方法

    公开(公告)号:CN102523477A

    公开(公告)日:2012-06-27

    申请号:CN201110391478.8

    申请日:2011-12-01

    Applicant: 上海大学

    Abstract: 本发明公开了一种基于双目最小可辨失真模型的立体视频质量评价方法,该方法首先建立双目立体亮度关系模型,研究左右视点视频各自的像素亮度与融合为立体视频时的亮度关系;根据背景亮度和纹理掩盖建立立体图像JND模型,根据视频帧间掩盖的可视阈值建立立体视频的JND模型;由基于空间-时间对比灵敏度函数和显示设备的相关参数获得基于空间-时间对比灵敏度函数的可视阈值;然后由立体视频的JND模型和基于于空间-时间对比灵敏度函数的可视阈值组合得到双眼的JND模型;最后建立基于立体视频质量的双目感知峰值信噪比对立体视频质量评价。该方法基于双目的JND模型,使立体视频质量的评价与人眼的视觉主观感知的视频质量相一致,正确反映人眼视觉的主观立体视频感知质量。

Patent Agency Ranking