-
公开(公告)号:CN104053012A
公开(公告)日:2014-09-17
申请号:CN201410231054.9
申请日:2014-05-28
Applicant: 北京大学深圳研究生院
IPC: H04N19/65 , H04N19/176 , H04N19/149 , H04N19/124 , H04N19/503
Abstract: 一种基于字典库的视频编解码方法及装置,该编码方法包括:将视频流中待编码的当前图像帧划分为若干图像块;采用纹理字典库的方式恢复当前图像帧前一帧的解码重建图像的编码失真信息,以得到恢复编码失真信息后的图像,并将恢复编码失真信息后的图像作为参考图像进行时域预测,得到待编码块的预测块;纹理字典库包括清晰图像字典和与所述清晰图像字典对应的失真图像字典;将待编码块与预测块相减得到残差块,对残差块进行处理得到视频码流。本申请提供的编解码方法及装置采用纹理字典库的方式恢复作为对待编码块(待解码块)进行预测的参考图像的编码失真信息,使得待编码块(待解码块)的预测块更加准确,从而提高编解码效率。
-
公开(公告)号:CN107316031B
公开(公告)日:2020-07-10
申请号:CN201710536020.4
申请日:2017-07-04
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种用于行人重识别的图像特征提取方法,通过对齐局部描述子提取和分级全局特征提取,进行行人重识别;对齐局部描述子提取采用仿射变换对原图像进行处理,对相邻区域的图像块特征进行求和池化操作而得到对齐局部描述子;对齐局部描述子保留图像内部块与块之间的空间信息;分级全局特征提取通过对定位的行人区域块进行分级,求取相应特征均值而得到全局特征。采用本发明技术方案,能够解决行人重识别中由于行人姿态变化等带来的特征不对齐问题,消除无关背景对重识别带来的影响,由此提高行人重识别的精度和鲁棒性。
-
公开(公告)号:CN107273872B
公开(公告)日:2020-05-05
申请号:CN201710570245.1
申请日:2017-07-13
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种用于图像或视频中行人重识别的深度判别网络模型方法,通过构建深度判别网络,将不同输入图像在颜色通道上进行融合拼接,将得到的拼接结果定义为不同图像的原始差异性空间;将原始差异性空间送入卷积网络中,通过学习原始差异性空间中的差异性信息,网络输出两张输入图像之间的相似性,由此实现行人重识别。本发明不对单独的图像进行特征的学习,而是在一开始就将输入图像在颜色通道上进行融合拼接,利用设计好的网络在图像的原始空间上学习差异性信息;通过引入Inception模块,嵌入到模型之中,能够提高网络的学习能力,达到更好的判别效果。
-
公开(公告)号:CN107330100B
公开(公告)日:2020-04-03
申请号:CN201710545632.X
申请日:2017-07-06
Applicant: 北京大学深圳研究生院
IPC: G06F16/583 , G06F16/33 , G06F16/338 , G06F16/36 , G06F40/253 , G06F40/30 , G06K9/62 , G06N3/08
Abstract: 本发明公布了一种基于多视图联合嵌入空间的图像‑文本双向检索方法,通过结合全局层面和局部层面的语义关联关系进行检索;先从画面‑句子视图和区域‑短语视图下分别获得全局和局部层面的语义关联关系,在画面‑句子视图中获取画面和句子全局层面子空间中的语义关联信息;在区域‑短语视图中获取区域和短语局部层面子空间中的语义关联信息;两个视图中均通过双分支的神经网络处理数据得到同构特征嵌入共同空间,在训练中使用约束条件保留数据原有的语义关系;再通过多视图融合排序方法融合两种语义关联关系得到数据之间更精准的语义相似度,使得检索结果准确度更高。
-
公开(公告)号:CN107507138B
公开(公告)日:2019-07-05
申请号:CN201710623921.7
申请日:2017-07-27
Applicant: 北京大学深圳研究生院
CPC classification number: G06T5/005 , G06T5/007 , G06T7/90 , G06T2207/20172
Abstract: 本发明公布了一种基于Retinex模型的水下图像增强方法,首先进行水下图像颜色校正,再将图像从RGB颜色空间转化到HSV颜色空间,然后基于Retinex模型,将V颜色通道分解成反射部分和光照部分,对光照部分进行初始化、提纯、校正,得到亮度调整后的V通道,和其他两个通道合并转换为RGB空间,得到最终的增强图像;包括颜色校正和亮度调整过程。相比于现有方法,采用本发明方法处理后的图片拥有更真实的颜色、更自然的表现以及更好的视觉效果;同时,方法计算复杂度较低,处理时间较短。
-
公开(公告)号:CN109410146A
公开(公告)日:2019-03-01
申请号:CN201811298475.8
申请日:2018-11-02
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及数字图像处理领域,特别一种基于Bi-Skip-Net的图像去模糊方法,是一种Bi-Skip-Net网络来实现模糊图像复原,旨在解决现有深度学习去模糊算法存在的时间复杂度高、纹理恢复不准确、复原图像存在方格效应等问题。本发明公开的一种Bi-Skip-Net网络来作为GAN(Generative Adversarial Network)的生成网络,旨在解决现有深度学习去模糊算法存在的缺点,通过对比现有最优算法,本发明在时间复杂度上提升了0.1s,在图像复图像原性能上平均提升了1dB。
-
公开(公告)号:CN107292923B
公开(公告)日:2019-03-01
申请号:CN201710513077.2
申请日:2017-06-29
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于深度图挖掘的后向传播显著性检测方法,对于一个输入图像Io,在预处理阶段,获取图像Io的深度图像Id和四角背景去除的图像Cb;在第一处理阶段,利用得到的去四角背景图像Cb和深度图像Id,对图像的显著性区域进行定位检测,得到图像中显著性物体的初步检测结果S1;然后对深度图像Id进行多个处理阶段的深度挖掘,得到相应的显著性检测结果;再利用后向传播机制,对每个处理阶段挖掘的显著性检测结果进行优化,得到最终的显著性检测结果图。本发明提供了一种后向传播机制来优化显著性检测结果,且能够提高显著性物体检测的精准性。
-
公开(公告)号:CN104244006B
公开(公告)日:2019-02-26
申请号:CN201410230514.6
申请日:2014-05-28
Applicant: 北京大学深圳研究生院
IPC: H04N19/53
Abstract: 本申请提供的基于图像超分辨率的视频编解码方法及装置,本申请方法在对待编码和待编码的视频图像进行预测前,先对视频图像进行超分辨率插值处理,可以对图像进行放大及进行细节信息恢复,从而,在对待编码/待解码图像进行预测得到预测块时,相比现有技术利用线性插值对视频图像进行预测的方法,更能有效还原原图像,避免出现现有技术中预测块边缘模糊的问题,从而提升视频图像预测的准确性,进而提升视频图像的编码效率。
-
公开(公告)号:CN105224288B
公开(公告)日:2018-01-23
申请号:CN201410302221.4
申请日:2014-06-27
Applicant: 北京大学深圳研究生院
CPC classification number: G06T15/04
Abstract: 本发明涉及双目三维图形渲染方法及相关系统。方法包括投影变换步骤,所述投影变换步骤包括:在近平面和远平面之间增加中平面作为投影面,将近平面与远平面之间的图元投影到中平面上。本发明通过增加的中平面,将近平面与远平面之间的图元投影到中平面上,则近平面与中平面之间的图元会有出屏的立体效果,中平面与远平面之间的图元会有入屏的立体效果;从而,使得在3D显示设备中使用现有的渲染管线时不需要特别的硬件,就可以渲染“出屏”和“入屏”效果。
-
公开(公告)号:CN107330100A
公开(公告)日:2017-11-07
申请号:CN201710545632.X
申请日:2017-07-06
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于多视图联合嵌入空间的图像-文本双向检索方法,通过结合全局层面和局部层面的语义关联关系进行检索;先从画面-句子视图和区域-短语视图下分别获得全局和局部层面的语义关联关系,在画面-句子视图中获取画面和句子全局层面子空间中的语义关联信息;在区域-短语视图中获取区域和短语局部层面子空间中的语义关联信息;两个视图中均通过双分支的神经网络处理数据得到同构特征嵌入共同空间,在训练中使用约束条件保留数据原有的语义关系;再通过多视图融合排序方法融合两种语义关联关系得到数据之间更精准的语义相似度,使得检索结果准确度更高。
-
-
-
-
-
-
-
-
-