-
公开(公告)号:CN113537456A
公开(公告)日:2021-10-22
申请号:CN202110660867.X
申请日:2021-06-15
Applicant: 北京大学
Abstract: 本发明公开了一种深度特征压缩方法,本发明构建并训练一压缩模型,该模型首先对神经网络提取的图像特征表示进行变换,产生变换后的紧凑表示,提取变换后的表示的超先验码流;超先验码流用于产生码本各个基元素的线性组合系数;码本从特征中学习获得;根据线性组合系数和对应的码本产生超先验概率估计,从而使用熵编码器进行熵编码,产生码流;码流通过熵解码和解码变换产生输出的特征表示。本发明能够对深度特征进行有效压缩,而且能够对多个任务特征进行协同压缩,重建时,对特征进行分离操作,分别产生对应不同任务的重建特征;本发明还能够支持训练时未见的新任务。
-
公开(公告)号:CN113132729A
公开(公告)日:2021-07-16
申请号:CN202010042012.6
申请日:2020-01-15
Applicant: 北京大学
IPC: H04N19/139 , H04N19/82 , G06N3/04
Abstract: 本发明公开了一种基于多参考帧的环路滤波方法及电子装置,其步骤包括:将原始帧送入视频编码器进行编码得到当前帧,并获取所述当前帧的第一参考帧与第二参考帧;计算所述当前帧、所述第一参考帧以及所述第二参考帧两两间的光流集合;将所述当前帧、所述第一参考帧、所述第二参考帧以及所述光流集合送入一深度卷积循环神经网络,得到滤波重建帧。本发明利用空域信息之外,额外使用了时域信息,提出了联合学习机制,提升了参考帧的质量,在不显著提升网络参数量的基础上,获得了更好的编码性能。
-
公开(公告)号:CN109255756B
公开(公告)日:2020-12-29
申请号:CN201710576592.5
申请日:2017-07-14
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T5/00
Abstract: 本发明提供一种低光照图像的增强方法及装置,该方法包括:计算原图像至少一个通道图像的增强梯度;建立关于至少一个通道图像的求解亮度分量和反射分量的目标函数;对至少一个通道图像的目标函数进行求解,以获得至少一个通道图像的亮度分量和反射分量;根据至少一个通道图像的亮度分量和反射分量计算至少一个通道增强后的图像;将各通道增强后的图像进行合成,或将某一通道增强后的图像与其他通道的原图像进行合成,以形成增强后的低光照图像。由于在目标函数中不在对数域上求解反射分量和亮度分量,所以有效抑制了图像中的噪声,并且在约束亮度分量的梯度时进行了1范数的约束,所以能够有效避免在图像增强的结果中产生光晕的现象。
-
公开(公告)号:CN107818545B
公开(公告)日:2020-07-14
申请号:CN201610819926.2
申请日:2016-09-12
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T3/40
Abstract: 本发明提供一种图像处理方法及装置,包括:对第一图像采用插值算法得到第二图像;确定以每个插值像素点为中心的第一局部窗口和第二局部窗口,并在第二图像中选择与第二局部窗口的相似度小于第一预设阈值的第三局部窗口;根据每个第三局部窗口的中心点与每个第三局部窗口中的每个参考点在第二局部窗口中选择N个第一参考点;确定以第一局部窗口中任一个非插值像素点为中心的第四局部窗口,在第四局部窗口中选择与N个第一参考点对应的N个第二参考点,根据N个第二参考点和第四局部窗口的中心点,确定N个第一参考点分别对应的权重系数;根据权重系数和第二局部窗口的N个第一参考点,更新第一局部窗口的中心点的像素值。从而提高图像处理效果。
-
公开(公告)号:CN111163318A
公开(公告)日:2020-05-15
申请号:CN202010020628.3
申请日:2020-01-09
Applicant: 北京大学
IPC: H04N19/184 , H04N19/146 , H04N19/136
Abstract: 本申请公开了一种基于反馈优化的人机视觉编码方法,所述方法包括:编码端获取所述目标视频对应的像素特征后输入预设预测模型中生成语义特征;编码端基于所述语义特征生成视频流和特征流;解码端基于所述编码后的特征流和视频流生成解码视频;解码端当接收到针对客户端输入的参数调整指令时,生成码率参数发送至编码端;编码端获取当前码率;编码端基于所述码率参数对所述当前码率进行调整生成调整后的码率;编码端基于所述调整后的码率增强所述视频流和所述特征流,生成增强后的视频流和增强后的特征流;解码端基于所述增强后的视频流和增强后的特征流对编码端模型进行更新。因此,采用本申请实施例,可以提高视频特征抽取和压缩效率。
-
公开(公告)号:CN110689486A
公开(公告)日:2020-01-14
申请号:CN201810735358.7
申请日:2018-07-06
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T5/00
Abstract: 本发明实施例公开了一种图像的处理方法、装置、设备及计算机可存储介质,方法包括:获取图像请求,所述图像请求包括:待处理的低光照图像;根据所述图像处理请求,采用预配置的低光照增强网络,对所述待处理的低光照图像进行提亮处理,获取所述待处理的低光照图像对应的正常光照图像。从而能够精准地实现对待处理的低光照图像的增强,进而能够使用户从增强的低光照图像中获取更多的信息。
-
公开(公告)号:CN109862370A
公开(公告)日:2019-06-07
申请号:CN201711242841.3
申请日:2017-11-30
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: H04N19/59 , H04N21/234 , H04N21/2343 , G06T9/00
Abstract: 本发明提供一种视频超分辨率处理方法及装置,通过获取视频的每一帧图像,将图像输入卷积神经网络;通过卷积神经网络对图像依次进行特征提取、特征降维、非线性映射以及向高维空间映射,获得超分辨率特征;并根据特征提取所得特征以及超分辨率特征进行重建,得到超分辨率图像;最后编码形成超分辨率视频码流。通过卷积神经网络实现对视频的超分辨率处理,通过特征降维、非线性映射以及向高维空间映射,减少计算复杂度,降低时间复杂度,并采用跳跃连接,降低网络的学习难度,保留输出图像的复杂纹理,从而在保证视频处理需要的实时性的同时,实现了较高的重建质量,在视频实时传输和压缩、视频修复等领域具有非常广阔的应用前景。
-
公开(公告)号:CN109493399A
公开(公告)日:2019-03-19
申请号:CN201811068309.9
申请日:2018-09-13
Applicant: 北京大学
Abstract: 本发明公开一种图文结合的海报生成方法和系统。该方法的步骤包括:给定一张目标文字,一张风格图片和一张背景图片,首先自动确定目标文字放置在背景图片的位置;然后对风格图片进行前背景分割;接着根据风格图片的前景的轮廓调整目标文字的轮廓;最后在调整后的目标文字的结构引导下和背景图片的像素约束下,将风格图片中的图像块填入目标文字在背景图片的放置区域内部,从而将带有风格图片的风格的文字即艺术字,嵌入到背景图片中,进行图片和文字的结合,全自动地生成一张艺术性的海报。本发明通过考虑多种因素自动确定文字在背景图片的最佳位置;同时考虑轮廓调整和文字的结构与背景图片的像素约束,使得生成的海报具有更好的主观视觉质量。
-
公开(公告)号:CN107516293A
公开(公告)日:2017-12-26
申请号:CN201610440640.3
申请日:2016-06-17
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
CPC classification number: G06T3/4007 , G06T5/50
Abstract: 本发明提供了一种图像插值方法和图像插值系统,其中,图像插值方法包括:将待处理的图像进行初始化插值处理,以生成上插后的目标图像;根据目标自回归插值函数对目标图像的插值像素点进行插值处理,包括:确定目标图像中以一个插值像素点为中心的图像块,对图像块中的每个插值像素点创建多组指定方向的自回归模型;对生成自回归模型的图像块进行相似性度量,以根据相似性度量的结果确定生成目标自回归函数;根据目标自回归函数确定图像块的插值像素点的灰度值。通过本发明技术方案,在图像插值过程中加入了自回归模型的方向信息,改善了图像的插值效果。
-
公开(公告)号:CN105096247A
公开(公告)日:2015-11-25
申请号:CN201410195204.5
申请日:2014-05-09
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T3/40
Abstract: 本发明提供一种图像插值方法和装置。该方法包括:对于待插值候选图像中每个原始像素点,根据所述原始像素点的灰度值以及所述原始像素点相邻区域内的其他所述原始像素点的灰度值计算获取与所述原始像素点对应的等照度线的等效位移系数;根据所述等效位移系数构建等照度线插值网格;根据预设的插值方法在所述等照度线插值网格内插入插值像素点,得到与所述待插值候选图像对应的插值结果候选图像。本发明提供的图像插值方法和装置,使得确定的等照度线的等效位移系数更准确,进而提高了图像插值的效果。
-
-
-
-
-
-
-
-
-