-
公开(公告)号:CN106131547A
公开(公告)日:2016-11-16
申请号:CN201610548047.0
申请日:2016-07-12
Applicant: 北京大学深圳研究生院
IPC: H04N19/11 , H04N19/593 , H04N19/147 , H04N19/136 , H04N19/176
CPC classification number: H04N19/11 , H04N19/593 , H04N19/136 , H04N19/147 , H04N19/176
Abstract: 本发明公布了一种视频编码中帧内预测模式的快速决策方法,通过判断预测方位,利用角度模式的相关性和PU尺寸构造PML,减少进行率失真优化的预测模式数目;包括:对主要预测方位集中的方位进行预测,选取率失真代价最优的前三个模式;将其相邻方向及Planar、DC模式加入PML中;计算PML中模式的率失真代价;将MPM中的模式无重复地添加入PML中;进行最后的率失真优化;将率失真代价最小的模式作为当前PU块的帧内预测的最优模式。本发明能够降低帧内预测的运算复杂度,提高视频编码速度。
-
公开(公告)号:CN105809197A
公开(公告)日:2016-07-27
申请号:CN201610135651.0
申请日:2016-03-10
Applicant: 北京大学深圳研究生院
IPC: G06K9/62
CPC classification number: G06K9/6201 , G06K9/629
Abstract: 一种基于MCMC框架下的子超图匹配方法和装置,提出通过构建子超图的方式进行物体特征的匹配。由于在大量的真实图片、视频中,物体都是不断变换,包含各种噪点,以及其他一些干扰因素的,以至于图像物体匹配检索变得非常困难,而通过子超图来表现物体的外观以及位置信息来进行物体特征匹配,就能更高速、更准确地实现图像的正确匹配。并且,子超图比图、超图更有优势。一方面,子超图比图具有更多的几何信息(例如,角度变换,旋转,尺度等),比超图的具有更低的难度,具有更好的延展性。另一方面,该方法和装置具有较强的抗干扰能力,鲁棒性好,能适应较复杂的场景,尤其是针对异常值。
-
公开(公告)号:CN106650806B
公开(公告)日:2019-07-26
申请号:CN201611166903.2
申请日:2016-12-16
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00362 , G06K9/6223 , G06K9/6269 , G06N3/0454
Abstract: 本发明公布了一种用于行人检测的协同式深度网络模型方法,包括:构建一种新的协同式多模型学习框架来完成行人检测中的分类过程;利用人工神经元网络来整合协同式模型中各子分类器的判决结果,并借用机器学习的方法训练该网络,能够更加有效地综合各分类器反馈的信息;提出一种基于K‑means聚类算法的重采样方法,增强协同模型中各分类器的分类效果,进而提升整体分类效果。本发明通过建立协同式深度网络模型,将由聚类算法得到的不同类型的训练数据集用于并行地训练多个深度网络模型,再通过人工神经元网络将原始数据集在各个深度网络模型上的分类结果进行整合和综合分析,以实现更加精准的样本分类。
-
公开(公告)号:CN106095893B
公开(公告)日:2018-11-20
申请号:CN201610398342.2
申请日:2016-06-06
Applicant: 北京大学深圳研究生院
IPC: G06F17/30
Abstract: 本发明公布了一种跨媒体数据检索方法,通过基于耦合的特征映射、同种媒体内和不同媒体间的关联挖掘进行跨媒体检索,包括:建立多媒体数据集、对样本集中的所有样本进行耦合特征映射、进行同种媒体类型内的关联挖掘、进行异种媒体类型间的关联挖掘、通过两种关联挖掘方法得到待检索图像或待检索文本的类别概率矩阵进行加权,分别得到图像检索文本的类别相似度矩阵和文本检索图像的类别相似度矩阵、将相似度降序排列进行检索。本发明提供的技术方案整体性能较好、适用性较广,可以用在多种跨媒体检索场景中。
-
公开(公告)号:CN108694200A
公开(公告)日:2018-10-23
申请号:CN201710230070.X
申请日:2017-04-10
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于深度语义空间的跨媒体检索方法,包括特征生成阶段和语义空间学习阶段;特征生成阶段通过模拟人对图像的感知过程,生成图像的CNN视觉特征向量和LSTM语言描述向量;利用LDA主题模型挖掘文本的主题信息,进而提取LDA文本主题向量。在语义空间学习阶段,分别利用训练集图像训练得到一个四层的多感知融合的深度神经网络,利用训练集文本训练得到一个三层的文本语义网络。最后将测试图像和文本分别利用两个网络映射到同构的语义空间,从而实现跨媒体检索。与现有方法相比,本发明能够显著提升跨媒体检索性能,具有广阔的应用前景和市场需求。
-
公开(公告)号:CN107273872A
公开(公告)日:2017-10-20
申请号:CN201710570245.1
申请日:2017-07-13
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种用于图像或视频中行人重识别的深度判别网络模型方法,通过构建深度判别网络,将不同输入图像在颜色通道上进行融合拼接,将得到的拼接结果定义为不同图像的原始差异性空间;将原始差异性空间送入卷积网络中,通过学习原始差异性空间中的差异性信息,网络输出两张输入图像之间的相似性,由此实现行人重识别。本发明不对单独的图像进行特征的学习,而是在一开始就将输入图像在颜色通道上进行融合拼接,利用设计好的网络在图像的原始空间上学习差异性信息;通过引入Inception模块,嵌入到模型之中,能够提高网络的学习能力,达到更好的判别效果。
-
公开(公告)号:CN106650806A
公开(公告)日:2017-05-10
申请号:CN201611166903.2
申请日:2016-12-16
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00362 , G06K9/6223 , G06K9/6269 , G06N3/0454
Abstract: 本发明公布了一种用于行人检测的协同式深度网络模型方法,包括:构建一种新的协同式多模型学习框架来完成行人检测中的分类过程;利用人工神经元网络来整合协同式模型中各子分类器的判决结果,并借用机器学习的方法训练该网络,能够更加有效地综合各分类器反馈的信息;提出一种基于K‑means聚类算法的重采样方法,增强协同模型中各分类器的分类效果,进而提升整体分类效果。本发明通过建立协同式深度网络模型,将由聚类算法得到的不同类型的训练数据集用于并行地训练多个深度网络模型,再通过人工神经元网络将原始数据集在各个深度网络模型上的分类结果进行整合和综合分析,以实现更加精准的样本分类。
-
公开(公告)号:CN109101859A
公开(公告)日:2018-12-28
申请号:CN201710474582.0
申请日:2017-06-21
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种使用高斯惩罚检测图像中行人的方法,在行人检测过程中,使用高斯惩罚对获得的初步行人边界框进行筛选,从而提升对图像中行人尤其是遮挡行人的检测性能;包括:获取行人检测图像的训练数据集、测试数据集和行人标注;使用行人检测方法用训练数据集训练得到检测模型,获取初步的行人边界框及其置信度和坐标;对行人边界框的置信度进行高斯惩罚,得到惩罚后的行人边界框置信度;通过行人边界框筛选得到最终的行人边界框,从而达到去除单个行人的重复边界框,而保留被遮挡行人的边界框的目的,由此实现对图像中行人的检测。本发明能够显著降低行人检测的漏检率,提高遮挡行人的检出率。
-
公开(公告)号:CN106202413B
公开(公告)日:2018-11-20
申请号:CN201610544156.5
申请日:2016-07-11
Applicant: 北京大学深圳研究生院
IPC: G06F17/30
Abstract: 本发明公布了一种新的跨媒体检索方法,利用VGG提出的卷积神经网络VGG net提取图像特征,将VGG卷积神经网络中的第七层全连接层fc7通过ReLU激活函数之后的4096维特征作为图像特征;利用基于Word2vec的Fisher Vector提取文本特征,通过逻辑回归的方法对异构图像、文本特征进行语义匹配,通过基于逻辑回归的语义匹配方法找到图像、文本这两种异构特征之间的关联,从而实现跨媒体检索;本发明的特征提取方法能有效地表示图像和文本的深层语义,可提高跨媒体检索的准确度,从而大幅度提升跨媒体检索效果。
-
公开(公告)号:CN108319686A
公开(公告)日:2018-07-24
申请号:CN201810101127.0
申请日:2018-02-01
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种基于受限文本空间的对抗性跨媒体检索方法,设计特征提取网络、特征映射网络和模态分类器,通过学习得到受限文本空间,提取适用于跨媒体检索的图像和文本特征,实现图像特征从图像空间到文本空间的映射;通过对抗性训练机制使得学习过程中不断减小不同模态数据之间特征分布的差异性;由此实现跨媒体检索。本发明能够更好地拟合人类在跨媒体检索任务中的行为表现;得到更适用于跨媒体检索任务的图像和文本特征,弥补了预训练特征在表达能力上的欠缺;引入对抗性学习的机制,通过模态分类器与特征映射网络之间的最大最小博弈,进一步提升了检索准确率。
-
-
-
-
-
-
-
-
-