-
公开(公告)号:CN102479380A
公开(公告)日:2012-05-30
申请号:CN201010558745.1
申请日:2010-11-25
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T3/40
Abstract: 为了解决现有技术插值图像在边界处出现瑕疵的问题,本发明公开了一种提高图像分辨率的图像插值方法及装置,该方法首先确定局部窗口内的所有像素点与基准像素点之间的相似性概率权重,然后根据该相似性概率权重对优化估计中每个像素点对整体误差的贡献进行调制,最后通过求解加权最小二乘法估计来求得局部窗口内的所有待估计的像素值,由于引入了相似度概率作为高分辨率像素点估计时的权重,进而使得估计误差最小化,减少了边界处出现的瑕疵。
-
公开(公告)号:CN101540908A
公开(公告)日:2009-09-23
申请号:CN200910080948.1
申请日:2009-03-30
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
CPC classification number: H04N19/59 , H04N19/115 , H04N19/147 , H04N19/187 , H04N19/33
Abstract: 本发明提供了一种视频编码处理方法,包括:在空域可伸缩视频编码中,根据待编层编码器的输入差分序列与参考层编码器的量化步长的关系,建立待编层编码器的编码失真模型;通过分析参考层编码器的码率和待编层编码器的码率的关系,建立待编层编码器的码率模型;根据待编层编码器的编码失真模型和码率模型,分配参考层编码器和待编层编码器的码率。本发明还提供了一种视频编码处理装置。本发明解决了现有技术无法对各层次的码率实现有效地分配,因而编码性能较差的问题,从而大幅度地提高了空域可伸缩编码的编码性能,使得编码效率最大化。
-
公开(公告)号:CN112651898B
公开(公告)日:2023-04-07
申请号:CN202110034912.0
申请日:2021-01-12
Applicant: 北京大学
IPC: G06T5/00 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于记忆增强的视频去雨方法与装置,其步骤包括:1)将卷积长短期记忆网络的内部状态作为全局长期记忆;对于待去雨处理的目标视频,将该目标视频的前n帧分别输入记忆增强去雨网络,获得各帧对应的去雨结果;2)对于该目标视频的第n帧之后的每一帧,执行步骤a)~c),获得该目标视频对应的去雨视频:a)将当前待去雨帧的前多帧的去雨结果、全局长期记忆、当前待去雨帧输入记忆增强去雨网络进行去雨,得到当前帧的去雨结果;b)计算当前待去雨帧与其去雨结果之间的差值,作为当前待去雨帧的雨痕图;c)将雨痕图输入卷积长短期记忆网络,更新该卷积长短期记忆网络的内部状态作为新的全局长期记忆。
-
公开(公告)号:CN114363624B
公开(公告)日:2023-03-31
申请号:CN202011090817.4
申请日:2020-10-13
Applicant: 北京大学
Abstract: 本发明公开了一种基于敏感度的码率分配特征压缩方法,其步骤包括:1)将图像的神经网络中间层特征输入深层神经网络进行计算,得到无损网络输出;2)对于所述神经网络中间层特征的每一单通道i,进行如下处理:为单通道i对应的特征施加编码噪声,得到该单通道i的加噪特征;然后将单通道i的加噪特征输入深层神经网络进行计算,得到单通道i的加噪输出;然后计算单通道i的加噪输出与所述无损网络输出的差值,作为单通道i的编码噪声敏感度;3)根据各单通道的编码噪声敏感度进行码率分配,为每个单通道分配压缩质量参数;4)根据各单通道分配所得的压缩质量参数,对量化后的所述神经网络中间层特征进行压缩,得到中间层特征压缩码流。
-
公开(公告)号:CN112019854B
公开(公告)日:2023-01-17
申请号:CN201910450808.2
申请日:2019-05-28
Applicant: 北京大学
IPC: H04N19/176 , H04N19/149 , H04N19/30 , H04N19/96 , H04N19/82
Abstract: 本发明为一种基于深度学习神经网络的环路滤波方法,利用了视频编码中块划分树的信息,进一步提升视频恢复质量。与传统的视频编码器内采用了手工设计的去块效应模块以及样点自适应补偿模块不同,本发明利用了深度卷积神经网络在大量训练数据集上进行学习,从而更准确地学习到从低质量视频到高质量视频的非线性映射。本发明为块与块间增加了连接,从而可以传递未被压缩的特征信息。此外,本发明还利用了视频编码器提供的块划分树中的多层块划分信息,生成多层编码单元均值图,进一步辅助神经网络更好地消除块效应。
-
公开(公告)号:CN115393491A
公开(公告)日:2022-11-25
申请号:CN202110571615.X
申请日:2021-05-25
Applicant: 北京大学 , 广州市百果园信息技术有限公司
Abstract: 本发明提供一种基于实例分割和参考帧的水墨视频生成方法及装置,包括获取真实视频中每一帧的实例分割图,并依据所帧之间的光流估计,计算各帧的相似程度,选取待转换帧及参考帧;将光流估计与待转换帧、参考帧及其实例分割图输入水墨风格化网络模型,得到待转换帧的水墨视频帧,从而获取该真实视频的水墨视频。本发明改善了模型的水墨风格生成能力,在留白、不同对象笔画纠缠以及不同尺度物体处理方面相较于已有技术取得了更好的效果,实现了带参考的水墨风格化,避免了传统顺序转换中的误差累积,相较于已有方法减少了生成的水墨视频中的闪烁和不一致。
-
公开(公告)号:CN112446247B
公开(公告)日:2022-11-15
申请号:CN201910813847.4
申请日:2019-08-30
Applicant: 北京大学
Abstract: 本发明公开了一种基于多特征融合的低光照人脸检测方法及低光照人脸检测网络。本方法为:1)对于一待处理的低光照图片x,使用提亮分支的编码器来对其进行降采样操作,提取不同尺度卷积层的输出作为该图片x的多尺度特征Fx',再使用提亮分支的解码器利用多尺度特征Fx'重建出一张提亮后的图片2)使用特征提取网络提取该图片的多尺度特征3)使用空洞卷积层分别对所述多尺度特征Fx'和多尺度特征进行增强,分别得到Fx和并将Fx和融合得到特征Fc,根据特征Fc预测得到图片x中的人脸区域包围框和对应置信度。本发明大大优化了低光照领域的人脸检测结果。
-
公开(公告)号:CN113949880B
公开(公告)日:2022-10-14
申请号:CN202111026165.2
申请日:2021-09-02
Applicant: 北京大学
Abstract: 本发明公开了一种极低码率人机协同图像编码训练方法及编解码方法。本方法为:1)利用训练集训练得到一个生成模型;2)对该训练集中的每一图像Ij进行特征提取和流形映射,得到Ij的流形特征;3)使用超先验模型对流形特征构建码率约束和编解码,得到二进制码流和重建后的流形特征;4)根据码率约束对Ij进行紧致损失函数计算;5)对重建后的流形特征进行人眼视觉映射并输入到生成模型中,根据所得人眼视觉重建结果进行损失函数计算;6)将重建后的流形特征输入到机器视觉模型中,根据所得机器视觉预测结果进行损失函数计算;7)将各损失进行加和更新权值;8)重复2)‑7)直到神经网络的损失收敛,得到极低码率人机协同图像编码器。
-
公开(公告)号:CN113132732B
公开(公告)日:2022-07-29
申请号:CN201911408329.0
申请日:2019-12-31
Applicant: 北京大学
IPC: H04N19/187 , H04N19/30 , H04N19/44 , H04N19/146 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种人机协同的视频编码方法及视频编码系统。本方法为:1)对于一段待编码视频以及对应的关键点序列,编码器首先对关键点序列进行编码压缩,形成关键点序列码流;然后从待编码视频中选取一帧并编码,作为参考帧,形成参考帧码流;根据关键点序列和参考帧生成一预测视频;2)降低该待编码视频的分辨率;计算该真实低分率视频与预测视频信号之间的残差,根据各帧的残差组成一残差视频序列并将其编码成残差码流;3)编码器根据需求将码流选择性的传输到解码器;如果为机器视觉任务,则根据关键点码流重建得到关键点序列;如果需要重建视频序列,则根据三码流重建得到原分辨率视频。本发明根据应用需求,提供可伸缩的视频编码。
-
公开(公告)号:CN114554205A
公开(公告)日:2022-05-27
申请号:CN202011353900.6
申请日:2020-11-26
Abstract: 提供一种图像编解码方法及装置,涉及图像编解码技术领域,能够减少神经网络的参数,能够降低图像编解码的算力消耗。该方法包括:使用第一分析网络对目标图像进行第一去相关变换,得到目标图像的第一特征图;且使用第二分析网络对第一特征图进行第二去相关变换,得到目标图像的第二特征图;然后基于第二特征图的第二概率直方图对第二特征图进行熵编码,获得目标图像的第二码流;并基于第二特征图的第二概率直方图和第二码流,获得目标图像的第二重建图;将第二重建图作为先验信息,使用第一概率预测网络对第一特征图进行概率预测,获得第一概率直方图;以及基于第一特征图的第一概率直方图对第一特征图进行熵编码,获得目标图像的第一码流。
-
-
-
-
-
-
-
-
-