基于显著度和混合高斯模型的监控视频前景提取方法

    公开(公告)号:CN102663405B

    公开(公告)日:2013-07-24

    申请号:CN201210147096.5

    申请日:2012-05-14

    Applicant: 武汉大学

    Abstract: 一种基于显著度和混合高斯模型的监控视频前景提取方法:先将待分析的视频采用混合高斯模型进行前景提取,然后将当前帧前帧中相邻2帧中颜色直方图欧式距离相差大的两帧中的帧号小的那一帧作为参考帧,将当前帧与该参考帧做差获取帧差图像,再进行二值化得到掩模图像。对该掩模图像进行基于3×3模板的高斯滤波消除图像的噪声。通过上述掩膜图像,获得基于该掩膜图像的当前帧区域,对区域进行显著度的提取并二值化得到基于显著度的掩膜,将基于显著度的掩膜和基于混合高斯模型的掩膜求并集,最终得到更加完整的前景区域。

    一种视频帧内预测编码方法

    公开(公告)号:CN101588487A

    公开(公告)日:2009-11-25

    申请号:CN200910062653.1

    申请日:2009-06-10

    Applicant: 武汉大学

    Abstract: 本发明属于图像处理技术领域,提供一种利用图像摘要进行帧内预测的视频帧内预测编码方法,其特征在于:对于每个视频镜头,求取出该视频镜头的图像摘要;在对视频镜头内图像的帧内编码过程中采用图像摘要预测模式,即利用该图像摘要进行帧内预测,得到帧内预测值后编码写入码流;将视频镜头的图像摘要编码写入码流。本发明利用图像摘要信息,可以在原有帧内预测编码的基础上,显著地提高视频帧内编码的编码效率,非常适合视频编辑、视频流式传输等应用领域。

    基于纹理与几何相似性的彩色图像空洞修复方法及系统

    公开(公告)号:CN103310420B

    公开(公告)日:2016-03-30

    申请号:CN201310244274.0

    申请日:2013-06-19

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于纹理与几何相似性的彩色图像空洞修复方法及系统,本发明考虑基于深度图与彩色图渲染合成新的虚拟视点的深度图中几何信息特征和彩色图中纹理细节内容,在二者共同约束下最小化纹理能量函数,寻找最优匹配块,融合具有相似视觉特性图像块的纹理,合成符合人眼视觉特性的修复内容,修复虚拟视点图像空洞,增强虚拟视点的彩色图像中空洞合成内容与周围非空洞内容的纹理结构连续性。

    一种基于深度图像渲染的立体混合最小可感知失真模型

    公开(公告)号:CN103957401A

    公开(公告)日:2014-07-30

    申请号:CN201410197694.2

    申请日:2014-05-12

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于深度图像渲染的立体混合最小可感知失真模型,通过深度掩蔽效应和几何失真效应来调制最小可感知失真值。本发明先计算2D最小可感知失真的值,然后对图像的深度掩蔽度和几何失真进行计算,对深度掩蔽度和几何失真与立体混合最小可感知失真的指数关系建模,通过2D最小可感知失真值与指数关系相乘得到立体混合最小可感知失真的值。本发明通过新的立体混合最小可感知失真模型,弥补了以前的立体最小可感知失真模型忽视深度掩蔽效应和几何失真效应等立体感知效应的缺陷;进一步利用新的立体混合最小可感知失真模型在立体视频编码中进行残差滤波,提高了立体视频编码效率。

    一种基于AVS的帧内预测方法

    公开(公告)号:CN102186086B

    公开(公告)日:2013-06-19

    申请号:CN201110168130.2

    申请日:2011-06-22

    Applicant: 武汉大学

    Abstract: 本发明公开了一种新的AVS双向帧内预测方法。新的双向帧内预测方法,对AVS中任意两种帧内预测模式求得的像素值都进行加权求和,得到最终的双向帧内预测像素值。本发明首先在AVS光栅扫描基础上增加反向扫描顺序,然后增加反向扫描对应的帧内预测模式,并对新增加的反向扫描帧内预测模式中的任意两种都进行加权求和得到反向扫描对应的双向帧内预测像素值,最后利用绝对误差和(SAE)标准,在光栅扫描和反向扫描对应的所有帧内预测及双向帧内预测模式中,选择出最优的帧内预测模式。本发明通过新的双向帧内预测方法,进一步提高了编码性能,改善了AVS标准中帧内预测模式较少,预测效率较低这一缺陷。

    一种视频帧内预测编码方法

    公开(公告)号:CN101588487B

    公开(公告)日:2011-06-29

    申请号:CN200910062653.1

    申请日:2009-06-10

    Applicant: 武汉大学

    Abstract: 本发明属于图像处理技术领域,提供一种利用图像摘要进行帧内预测的视频帧内预测编码方法,其特征在于:对于每个视频镜头,求取出该视频镜头的图像摘要;在对视频镜头内图像的帧内编码过程中采用图像摘要预测模式,即利用该图像摘要进行帧内预测,得到帧内预测值后编码写入码流;将视频镜头的图像摘要编码写入码流。本发明利用图像摘要信息,可以在原有帧内预测编码的基础上,显著地提高视频帧内编码的编码效率,非常适合视频编辑、视频流式传输等应用领域。

    基于视觉特性的视频编码系统

    公开(公告)号:CN101710995A

    公开(公告)日:2010-05-19

    申请号:CN200910273190.3

    申请日:2009-12-10

    Applicant: 武汉大学

    Abstract: 本发明涉及视频编解码技术领域,尤其涉及一种基于视觉特性的视频编码系统。本发明包括变换域的基于关注度的最小可察觉失真阈值计算模块、编码模块,其中,基于关注度的最小可察觉失真阈值计算模块包括关注点提取子模块、关注度调制因子计算字模块、最小可察觉失真阈值计算子模块、基于关注度的最小可察觉失真阈值计算子模块,编码模块包括空间/时间预测编码子模块、变换子模块、变换域滤波子模块、量化子模块、熵编码子模块、率失真优化子模块,本发明通过建立DCT域的Foveated JND模型,并将其运用到视频编码框架中DCT域的滤波和率失真优化模块,力求在主观质量保持不变的情况下,大幅降低了编码码率。

    一种基于动态纹理合成的虚拟参考图像选择方法

    公开(公告)号:CN101674483A

    公开(公告)日:2010-03-17

    申请号:CN200910272285.3

    申请日:2009-09-28

    Applicant: 武汉大学

    Abstract: 本发明涉及视频编码技术领域,尤其涉及一种基于动态纹理合成的虚拟参考图像选择方法。本发明包括以下步骤:输入编码端参考图像列表中的n帧参考图像,所述n≥2,利用动态纹理模型生成一帧虚拟图像,将上述虚拟图像作为一帧参考图像供编码器处理,编码器从真实参考图像和上述虚拟图像中进行匹配搜索,计算获得最佳预测模型和参考帧。本发明通过求解动态纹理模型合成一帧虚拟图像,将其引入帧间预测的虚拟参考图像选择算法中,提升帧间预测的效率。

    基于DCT域的彩色图像可觉察失真度计算方法

    公开(公告)号:CN101621708A

    公开(公告)日:2010-01-06

    申请号:CN200910063359.2

    申请日:2009-07-29

    Applicant: 武汉大学

    Abstract: 本发明涉及视频图像通信技术领域,尤其涉及一种基于DCT域的彩色图像可觉察失真度计算方法。本发明将选定的彩色图像由RGB色彩空间转换到Lab色彩空间,对Lab色彩空间下的L、a、b三个分量分别进行8×8的DCT变换,将其由空域变换到DCT域,在DCT域,根据亮度基本阈值和调制因子的乘积计算获得亮度分量L的可觉察失真度JND值,在DCT域,根据色度基本阈值和调制因子的乘积计算获得色度分量a、b的可觉察失真度JND值。本发明彩色图像可觉察失真度计算方法整体上具有更低的峰值信噪比(PSNR)值,其能容忍更多的客观失真。

    基于纹理检测和颜色分割的视频图像运动目标提取方法

    公开(公告)号:CN102915544A

    公开(公告)日:2013-02-06

    申请号:CN201210351494.9

    申请日:2012-09-20

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于纹理检测和颜色分割的视频图像运动目标提取方法。所述方法首先对视频信号预处理后得到的RGB图像进行k-means图像聚类分割,并记录下每个像素点所属的颜色分类号;其次根据当前帧与背景帧的灰度值进行LBP纹理检测,计算得到表示运动目标的像素点,并建立像素点与宏块的映射关系以得到宏块级的运动目标;再次,根据颜色分类号及运动目标像素进行交叠检测得到初步的运动目标;最后,合并LBP纹理检测及颜色分割得到的运动目标并进行滤波,便得到最终的运动目标。本发明具有如下优点:不仅保持了纹理检测定位精确、对光照变化鲁棒的优点,而且有效地解决了缓慢运动或原地运动的情况下运动目标融入背景的问题。

Patent Agency Ranking