-
公开(公告)号:CN109064507B
公开(公告)日:2021-06-22
申请号:CN201810955354.X
申请日:2018-08-21
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种用于视频预测的多运动流深度卷积网络模型方法,包括:构建融合长短期记忆网络模块的新的卷积自动编码网络框架;提出运动流作为输入帧到输出帧的运动转换;采用同时生成多个运动流以分别学习更加细腻的运动信息的方法,有效提升预测效果;提出基图像作为运动流方法的像素级别的补充,进而提升模型的鲁棒性和预测的整体效果。通过双线性插值法将多个运动流分别作用在输入帧上来得到多个运动预测图,再根据权重矩阵将各个运动预测图与基图像线性组合得到最终的预测结果。采用本发明技术方案,能够更加充分地提取和传递视频序列中的时间信息,从而实现更长期、更清晰准确的视频预测。
-
公开(公告)号:CN106650806B
公开(公告)日:2019-07-26
申请号:CN201611166903.2
申请日:2016-12-16
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00362 , G06K9/6223 , G06K9/6269 , G06N3/0454
Abstract: 本发明公布了一种用于行人检测的协同式深度网络模型方法,包括:构建一种新的协同式多模型学习框架来完成行人检测中的分类过程;利用人工神经元网络来整合协同式模型中各子分类器的判决结果,并借用机器学习的方法训练该网络,能够更加有效地综合各分类器反馈的信息;提出一种基于K‑means聚类算法的重采样方法,增强协同模型中各分类器的分类效果,进而提升整体分类效果。本发明通过建立协同式深度网络模型,将由聚类算法得到的不同类型的训练数据集用于并行地训练多个深度网络模型,再通过人工神经元网络将原始数据集在各个深度网络模型上的分类结果进行整合和综合分析,以实现更加精准的样本分类。
-
公开(公告)号:CN105023240B
公开(公告)日:2019-07-09
申请号:CN201510398331.X
申请日:2015-07-08
Applicant: 北京大学深圳研究生院
IPC: G06T3/40
CPC classification number: G06T3/00
Abstract: 本发明提供一种基于迭代投影重建的字典类图像超分辨率系统及方法,所述系统包括:字典训练和投影矩阵预计算模块、基于投影矩阵的迭代投影超分辨率重建模块和基于全局约束的后处理模块。所述方法包括:步骤S1、字典的学习和投影矩阵的计算;步骤S2、基于投影矩阵的迭代投影超分辨率重建:对低分辨率图像块输入y,在字典中寻找与其最相似的原子,使用该原子的投影矩阵来对y进行超分辨率重建,对产生的残差向量进行再次投影重建获得残差向量的高分辨率重建,如此迭代重建,最后将全部重建成分加权相加作为最后重建的结果;步骤S3、对重建图像通过全局约束来消除不自然效应。本发明可有效提高字典类方法的计算速度并能够恢复图像高频细节信息。
-
公开(公告)号:CN106204636B
公开(公告)日:2019-03-22
申请号:CN201610478505.8
申请日:2016-06-27
Applicant: 北京大学深圳研究生院
IPC: G06T7/223
Abstract: 本发明公布了一种针对监控视频的视频前景提取方法,基于图像块处理方法,通过调节块的大小适应不同的视频分辨率;再通过建立背景块模型,提取处于运动态的前景物体;包括:将监控视频中每一帧图像I表示为块;进行初始化;更新块背景权重、块临时背景和临时背景;更新块背景和背景;保存前景、更新前景块权重和前景块;将前景进行二值化处理即为最终前景结果。本发明针对监控视频中每一帧图像进行降维,通过基于像素的比较消除光照对于块方法的影响;同时消除监控视频尺寸不断增大对视频分析带来的影响。本发明能够提取动态前景物体、适应较大监控视频尺寸、且具有较低算法复杂度。
-
公开(公告)号:CN104769947B
公开(公告)日:2019-02-26
申请号:CN201380003162.4
申请日:2013-07-26
Applicant: 北京大学深圳研究生院
IPC: H04N19/51 , H04N19/573
Abstract: 一种基于P帧的多假设运动补偿编码方法,以当前图像块的相邻已编码图像块作为参考图像块,获得每一块参考图像块对应的第一运动矢量,再参考第一运动矢量通过联合运动估计的方式获得相应的第二运动矢量,并以编码代价最小的第一运动矢量、第二运动矢量和最终预测块作为当前图像块最终的第一运动矢量、第二运动矢量和最终预测块,使得获得的当前图像块的最终预测块具有更高的准确性,且不会增大传输码流的码率。
-
公开(公告)号:CN104915373B
公开(公告)日:2018-12-07
申请号:CN201510202663.6
申请日:2015-04-27
Applicant: 北京大学深圳研究生院
IPC: G06F17/30
Abstract: 本申请提供的三维网页设计方法及装置,在预设的全局三维容器中为网页元素设置对应的锚点,根据对应的锚点的坐标,将网页元素在全局三维容器中进行定位,得到网页元素的定位坐标及深度值,根据定位坐标,分别在左眼视图以及右眼视图绘制所述网页元素,可以将网页元素设计成带有三维效果,因此观察者或者网页使用者在浏览网页时,即可看到三维的网页内容,提升了用户的体验度。并且网页图像上元素的需变换位置时,可以重复利用已有的锚点,因此减少了冗余计算,三维效果也仅需少量的浏览器内核变动。本申请方法适用于任何网页,适用范围大,并且本申请形成的三维界面不需要用户进行启动,设计后打开网页即可看到三维效果,使用简便。
-
公开(公告)号:CN106095893B
公开(公告)日:2018-11-20
申请号:CN201610398342.2
申请日:2016-06-06
Applicant: 北京大学深圳研究生院
IPC: G06F17/30
Abstract: 本发明公布了一种跨媒体数据检索方法,通过基于耦合的特征映射、同种媒体内和不同媒体间的关联挖掘进行跨媒体检索,包括:建立多媒体数据集、对样本集中的所有样本进行耦合特征映射、进行同种媒体类型内的关联挖掘、进行异种媒体类型间的关联挖掘、通过两种关联挖掘方法得到待检索图像或待检索文本的类别概率矩阵进行加权,分别得到图像检索文本的类别相似度矩阵和文本检索图像的类别相似度矩阵、将相似度降序排列进行检索。本发明提供的技术方案整体性能较好、适用性较广,可以用在多种跨媒体检索场景中。
-
公开(公告)号:CN108694200A
公开(公告)日:2018-10-23
申请号:CN201710230070.X
申请日:2017-04-10
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于深度语义空间的跨媒体检索方法,包括特征生成阶段和语义空间学习阶段;特征生成阶段通过模拟人对图像的感知过程,生成图像的CNN视觉特征向量和LSTM语言描述向量;利用LDA主题模型挖掘文本的主题信息,进而提取LDA文本主题向量。在语义空间学习阶段,分别利用训练集图像训练得到一个四层的多感知融合的深度神经网络,利用训练集文本训练得到一个三层的文本语义网络。最后将测试图像和文本分别利用两个网络映射到同构的语义空间,从而实现跨媒体检索。与现有方法相比,本发明能够显著提升跨媒体检索性能,具有广阔的应用前景和市场需求。
-
公开(公告)号:CN104488266B
公开(公告)日:2018-07-06
申请号:CN201380000789.4
申请日:2013-06-27
Applicant: 北京大学深圳研究生院
IPC: H04N19/00
CPC classification number: H04N19/146 , H04N19/119 , H04N19/126 , H04N19/136 , H04N19/176 , H04N19/18 , H04N19/186 , H04N19/1883 , H04N19/61 , H04N19/625 , H04N19/70
Abstract: 本申请公开了一种AVS视频压缩编码方法及编码器,主要采用计算所得待编码图像的平均亮度值以及每一频带的平均变换系数,对量化矩阵中每一频带的初始加权量化系数进行调整,得到用于量化的最终加权量化系数,从而可采用最终加权量化系数组成的量化矩阵,对变换所得不同频点的变换系数进行不同步长的量化。这样,量化过程能充分考虑到待编码图像本身的属性,自适应地进行量化矩阵中加权量化系数的调整,在保证视频编码质量的同时,有效降低了编码码率。
-
公开(公告)号:CN107403418A
公开(公告)日:2017-11-28
申请号:CN201710623970.0
申请日:2017-07-27
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种水下图像增强方法,基于三通道透射率关系进行去雾和颜色校正,包括先进行四叉树搜索找到图像中最亮的点,基于暗通道先验求出红色通道的光的透射率,再通过比尔定律等求出蓝绿通道的透射率,综合最亮点和三通道的透射率进行去雾,最后基于三通道透射率关系进行颜色校正。本发明方法能够让增强后的图像获得很好地视觉效果并且具有较好的鲁棒性,适用于多种场景。
-
-
-
-
-
-
-
-
-