-
公开(公告)号:CN104992442A
公开(公告)日:2015-10-21
申请号:CN201510397771.3
申请日:2015-07-08
Applicant: 北京大学深圳研究生院
IPC: G06T7/00
CPC classification number: G06T7/00 , G06T2207/10021 , G06T2207/10024 , G06T2207/20228
Abstract: 本发明公开一种面向平面显示设备的视频立体化绘制方法,步骤包括:提取彩色帧和深度帧:获取实时输入的彩色帧Ic和深度帧Id序列;深度帧拉伸:对深度帧进行线性变换、双边滤波后得到图像Id’;分割精细的前景掩码;计算参照线位置:在场景的左半边和右半边分别确定参照线lleft和lright;应用摄像机几何原理逐层将彩色帧Ic和图像Id’重新绘制到成像平面上的新彩色帧Rc和新深度帧Rd;构造场景三角网格修复新彩色帧Rc和新深度帧Rd中出现的像素缺失;对远景进行适当的模糊;在Rcb中插入参考线得到结果图像Rcbp。采用本发明的方法后,不需任何辅助硬件设备,通过对视频帧进行相应图像处理,即可在平面显示设备上较好地突出运动前景、增强视频的动态立体呈现效果。
-
公开(公告)号:CN104756489A
公开(公告)日:2015-07-01
申请号:CN201380003165.8
申请日:2013-07-29
Applicant: 北京大学深圳研究生院
IPC: H04N13/00
CPC classification number: H04N13/111 , H04N2013/0081
Abstract: 本申请公开了一种虚拟视点合成方法及系统,包括建立左视点虚拟视图和右视点虚拟视图;在参考视图中搜索候选像素,对于搜索不到候选像素的像素块,标记为洞点;对搜索到的候选像素按照深度排序并依次计算前景系数和背景系数,进行加权求和;将左视点虚拟视图和/或右视点虚拟视图的洞点区域向背景方向扩大,去除鬼影像素;对左视点虚拟视图和右视点虚拟视图进行视点合成;对合成图像进行洞点填补。本申请由于对于搜索不到候选像素的像素块,标记为洞点,使用对应图像中的信息进行填补,而空洞区域刚好是容易产生颜色混合的部分,避免了在边界区域容易产生边界与背景混合的现象,同时在边界和非边界区域获得良好的合成质量。
-
公开(公告)号:CN104488266A
公开(公告)日:2015-04-01
申请号:CN201380000789.4
申请日:2013-06-27
Applicant: 北京大学深圳研究生院
IPC: H04N19/00
CPC classification number: H04N19/146 , H04N19/119 , H04N19/126 , H04N19/136 , H04N19/176 , H04N19/18 , H04N19/186 , H04N19/1883 , H04N19/61 , H04N19/625 , H04N19/70
Abstract: 本申请公开了一种AVS视频压缩编码方法及编码器,主要采用计算所得待编码图像的平均亮度值以及每一频带的平均变换系数,对量化矩阵中每一频带的初始加权量化系数进行调整,得到用于量化的最终加权量化系数,从而可采用最终加权量化系数组成的量化矩阵,对变换所得不同频点的变换系数进行不同步长的量化。这样,量化过程能充分考虑到待编码图像本身的属性,自适应地进行量化矩阵中加权量化系数的调整,在保证视频编码质量的同时,有效降低了编码码率。
-
公开(公告)号:CN104396246A
公开(公告)日:2015-03-04
申请号:CN201380000788.X
申请日:2013-06-26
Applicant: 北京大学深圳研究生院
IPC: H04N19/436 , H04N19/127
CPC classification number: H04N19/436
Abstract: 本申请公开了一种视频压缩编码方法及编码器,主控模块将待编码的图像帧按照预定顺序逐个分发至空闲的帧编码模块后,帧编码模块中空闲的块编码模块根据对应图像帧中块的编码状态信息,互斥地选取具备编码条件但未编码的块进行编码,并在编码完成后更新块的编码状态信息,而当图像帧的编码完成后,更新帧编码模块的空闲状态信息。这样就能真正做到以块为任务分发单位,只要图像中可立即编码的块的数目超过块编码线程数,所有线程就能够被充分利用,大大减少了对下方宏块进行编码的线程出现等待的情况,进而减少了块间同步的次数,降低了并行视频压缩编码通信代价,提高了视频压缩编码性能。
-
公开(公告)号:CN102625097B
公开(公告)日:2014-11-05
申请号:CN201110033714.9
申请日:2011-01-31
Applicant: 北京大学
IPC: H04N19/597 , H04N19/61
Abstract: 本发明提供了一种三维视频帧内预测方法及编解码方法。本发明要解决的技术问题是在传统混合编码框架下改进三维视频帧内预测方法,提高三维视频/图像编码的压缩效率。本发明提出了一种新的帧内差异补偿预测方法,在交织模式下的三维视频,首先对其他视点的图像内容进行编码,然后在编码当前视点时,利用已重构的其他视点图像作为参考图像,进行视间差异估计及差异补偿,降低预测冗余,提高编码效率。本发明不仅能够明显提高常用码率范围内三维视频/图像编码的压缩效率,同时计算复杂度相对较低,适合实际应用。
-
公开(公告)号:CN104063856A
公开(公告)日:2014-09-24
申请号:CN201410230840.7
申请日:2014-05-28
Applicant: 北京大学深圳研究生院
Abstract: 一种快速超分辨率图像重建方法和装置,本申请提供的一种快速超分辨率图像重建方法和装置中,在对原始图像进行超分辨率图像重建过程中至少采用基于纹理结构约束的迭代后向映射的方式对原始图像进行处理,以增强图像的纹理细节,从而提高超分辨率图像的高频细节质量。
-
公开(公告)号:CN102647602B
公开(公告)日:2014-08-20
申请号:CN201110040029.9
申请日:2011-02-17
Applicant: 北京大学深圳研究生院
IPC: H04N13/00
Abstract: 本发明涉及一种基于GPU加速的2D视频转3D视频系统,它包括一个深度线索提取模块、一个深度图生成模块、一个深度图优化模块、一个左右视生成模块、一个合成模块和一个输出模块,其特征在于:所述深度线索提取模块和输出模块位于CPU,在CPU上执行;所述深度图生成模块、深度图优化模块、左右视生成模块、合成模块等位于GPU,在GPU上执行;所述各模块组织成三个线程,CPU工作线程驱动深度线索提取模块,GPU工作线程驱动深度图生成模块、深度图优化模块、左右视生成模块、合成模块,CPU输出线程驱动输出模块;所述三个线程以流水方式并行执行。
-
公开(公告)号:CN103716623A
公开(公告)日:2014-04-09
申请号:CN201310695685.1
申请日:2013-12-17
Applicant: 北京大学深圳研究生院
IPC: H04N19/126 , H04N19/176 , H04N19/61 , H04N19/44
Abstract: 本申请公开一种基于加权量化的视频压缩编解码方法,编码过程包括将待编码图像的属性分量划分成若干属性块;对属性块进行预测得到残差块,并变换得到残差块中各频点的变换系数;选取一个默认矩阵,对频点的初始量化步长进行加权计算得到加权量化步长矩阵;使用加权量化步长矩阵对变换系数进行量化,得到量化块,将量化块写入码流,并根据量化块的值,确认写入码流的其他信息。本申请还公开一种基于加权量化的视频压缩编解码器。本申请由于预设加权量化矩阵集中包括多个默认矩阵,能有效地对不同情况下的变换系数矩阵进行加权量化,在不降低主观质量的情况下,有效的降低编码所需码率。
-
公开(公告)号:CN103152587A
公开(公告)日:2013-06-12
申请号:CN201110403749.7
申请日:2011-12-06
Applicant: 北京大学深圳研究生院
Abstract: 本发明公开了一种基于视频压缩码流中辅助增强信息的2D视频转3D视频方法,包括:使用辅助增强信息描述深度线索;将该辅助增强信息使用熵编码进行编码并存储于视频序列的补充增强信息(Supplemental enhancement information)中;解码端将解码2D视频,利用辅助增强信息以及解码出的2D视频生成深度图,并跟据深度图和解码出的2D视频生成3D视频。该发明提出的基于视频压缩码流中辅助增强信息的2D视频转3D视频方法,能有效地帮助解码端提升2D视频转3D视频的质量,并且具有较小的传输代价和计算复杂度。
-
公开(公告)号:CN102625097A
公开(公告)日:2012-08-01
申请号:CN201110033714.9
申请日:2011-01-31
Applicant: 北京大学
Abstract: 本发明提供了一种三维视频帧内预测方法及编解码方法。本发明要解决的技术问题是在传统混合编码框架下改进三维视频帧内预测方法,提高三维视频/图像编码的压缩效率。本发明提出了一种新的帧内差异补偿预测方法,在交织模式下的三维视频,首先对其他视点的图像内容进行编码,然后在编码当前视点时,利用已重构的其他视点图像作为参考图像,进行视间差异估计及差异补偿,降低预测冗余,提高编码效率。本发明不仅能够明显提高常用码率范围内三维视频/图像编码的压缩效率,同时计算复杂度相对较低,适合实际应用。
-
-
-
-
-
-
-
-
-