-
公开(公告)号:CN112949722B
公开(公告)日:2023-05-05
申请号:CN202110243078.6
申请日:2021-03-05
Applicant: 北京大学深圳研究生院
IPC: G06V10/774 , G06V10/82 , G06V10/764 , G06V10/74 , G06V10/42 , G06V10/56 , G06N3/0464 , G06N3/08
Abstract: 基于图像组合特征表述的少样本学习方法,包括s1:输入训练的图像,转步骤s2或s3;s2:用深度神经网络提取图像深度表述特征,转步骤s4或s6;s3:用感知机模型提取物体不同属性所对应的特征编码,转步骤s5;s4:对步骤s2中提取的图像深度表述特征进行分块,每块特征分别对应于其所在位置处的图像深度表述特征,转步骤s5;s5:比较步骤s4所提取的各个分块的图像深度表述特征与步骤s3所提取的不同属性所对应的特征编码的相似性,把各个块的相似性的累加和作为整幅图像深度表述特征与图像属性特征编码之间相似性的度量;以及s6:对图像进行分类,判定图像所包含的物体的类别。该方法适用于少样本学习过程,能加快对未知类别的的学习过程。
-
公开(公告)号:CN108830212B
公开(公告)日:2022-04-22
申请号:CN201810597905.X
申请日:2018-06-12
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种视频行为时间轴检测方法,基于深度学习和时间结构建模,并结合粗粒度检测与细粒度检测做视频行为时间轴检测,在已有模型SSN的基础上,使用双流模型来提取视频的时空特征;对行为的时间结构进行建模,将单个行为分为三个阶段;接着提出一种新的能够有效提取视频行为的时间边界信息的特征金字塔;最后结合粗粒度检测与细粒度检测,使得检测结果更加精确;本发明的检测精度高,超过了当前已有的所有公开方法,具有广泛的适用性,可适用于智能监控系统或者人机监护系统中对人类感兴趣视频片段的检测,便于后续的分析与处理,具有重要的应用价值。
-
公开(公告)号:CN109409257A
公开(公告)日:2019-03-01
申请号:CN201811181395.4
申请日:2018-10-11
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及数字图像处理技术领域,具体为一种基于弱监督学习的视频时序动作检测方法。该方法具体步骤是,步骤1:把视频输入分类器,分别得到不同的检测置信度;步骤2:融合视频在不同分类器的得分;步骤3:条件随机场精调结果;检测阶段的步骤是,步骤4:把待检测视频输入训练出的分类器,得到不同的检测置信度;步骤5:通过FC-CRF优化融合不同的检测置信度。本方法可将人类的先验知识和神经网络的输出结合起来,实验结果表明FC-CRF在ActivityNet上提高了20.8%mAP@0.5的检测性能。
-
公开(公告)号:CN108898076B
公开(公告)日:2022-07-01
申请号:CN201810607040.0
申请日:2018-06-13
Applicant: 北京大学深圳研究生院
Abstract: 一种视频行为时间轴定位及候选框提取的方法,该方法是基于未裁剪视频数据的、深度强化学习的视频行为时间轴候选框提取方法,具体步骤是:首先,在视频行为时间轴定位任务上建立了马尔科夫模型,将视频行为时间轴定位任务转化为求解马尔科夫决策过程;然后,使用经典的深度强化学习算法DQN来求解马尔科夫决策过程,使得算法自动调整时间轴窗口的长度与位置;最后,使用训练出来的智能体模型和一个动作/背景二分类器,来定位视频中的人类行为,产生时间轴候选框,以供后续更精确的定位和分析。本发明在效率与效果上超越了目前大多数先进算法,可用于定位视频中的人类行为。
-
公开(公告)号:CN108875610B
公开(公告)日:2022-04-05
申请号:CN201810569922.2
申请日:2018-06-05
Applicant: 北京大学深圳研究生院
Abstract: 一种基于边界查找的用于视频中动作时间轴定位的方法,采用时间轴边界似然的组件来改进第三阶段的定位问题。该组件通过三个步骤来执行更精确的视频动作定位:给定一段由第一和第二阶段产生的类别可知的动作提议,第一步将其左右边界扩充得到一个更大的搜索间隔片段,同时将这个时间间隔均匀等分成多个单元,每个单元包含同样数目的帧数;第二步对每一个单元计算内外概率或者边界概率,分别表示该单元位于真实标注之内或之外以及是该动作发生的开始边界或结束边界的概率;第三步基于每个单元计算出的概率,利用最大似然估计来估计出最优的动作时间轴边界,从而达到定位的效果。
-
公开(公告)号:CN108830212A
公开(公告)日:2018-11-16
申请号:CN201810597905.X
申请日:2018-06-12
Applicant: 北京大学深圳研究生院
Abstract: 本发明公布了一种视频行为时间轴检测方法,基于深度学习和时间结构建模,并结合粗粒度检测与细粒度检测做视频行为时间轴检测,在已有模型SSN的基础上,使用双流模型来提取视频的时空特征;对行为的时间结构进行建模,将单个行为分为三个阶段;接着提出一种新的能够有效提取视频行为的时间边界信息的特征金字塔;最后结合粗粒度检测与细粒度检测,使得检测结果更加精确;本发明的检测精度高,超过了当前已有的所有公开方法,具有广泛的适用性,可适用于智能监控系统或者人机监护系统中对人类感兴趣视频片段的检测,便于后续的分析与处理,具有重要的应用价值。
-
公开(公告)号:CN105608446B
公开(公告)日:2019-02-12
申请号:CN201610074818.7
申请日:2016-02-02
Applicant: 北京大学深圳研究生院
Abstract: 本申请提供的视频流异常事件的检测方法及装置,将自动编码机堆叠起来构建深度神经网络框架,通过无监督的方式学习外形和运动信息的深度表述特征,设计单分类支持向量机作为正常与异常事件的分类器。为了更好地利用外形和运动信息的互补性,使用了两层信息融合方式来提高分类器的分类能力:前期的特征融合和后期的分类结果融合,两次的融合技术来更好利用外形和运动信息之间的互补性,提高了异常事件检测和定位的准确率。
-
公开(公告)号:CN107451553A
公开(公告)日:2017-12-08
申请号:CN201710618257.7
申请日:2017-07-26
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00711 , G06K9/00751 , G06K9/6215 , G06K2009/00738 , G06T7/215 , G06T7/246 , G06T2207/10016 , G06T2207/30232 , G06T2207/30241
Abstract: 本发明公布了一种基于超图转变模型的视频中暴力事件检测方法,包括前景目标轨迹提取过程、构建超图与相似度量过程和构建超图转变描述子过程;采用超图描述特征点的空间关系,反映运动的姿态信息;为时间序列中相关联的超图之间的转变建模并提出特征描述子HVC,能有效反映动作的强度及稳定性。该方法先对特征点的空间关系以及特征点群体的转变情况分别进行分析,再将其进行联合分析;本发明方法对视频中杂乱的不规律行为敏感,适用于暴力事件的检测。
-
公开(公告)号:CN112949722A
公开(公告)日:2021-06-11
申请号:CN202110243078.6
申请日:2021-03-05
Applicant: 北京大学深圳研究生院
Abstract: 基于图像组合特征表述的少样本学习方法,包括s1:输入训练的图像,转步骤s2或s3;s2:用深度神经网络提取图像深度表述特征,转步骤s4或s6;s3:用感知机模型提取物体不同属性所对应的特征编码,转步骤s5;s4:对步骤s2中提取的图像深度表述特征进行分块,每块特征分别对应于其所在位置处的图像深度表述特征,转步骤s5;s5:比较步骤s4所提取的各个分块的图像深度表述特征与步骤s3所提取的不同属性所对应的特征编码的相似性,把各个块的相似性的累加和作为整幅图像深度表述特征与图像属性特征编码之间相似性的度量;以及s6:对图像进行分类,判定图像所包含的物体的类别。该方法适用于少样本学习过程,能加快对未知类别的的学习过程。
-
公开(公告)号:CN107451553B
公开(公告)日:2019-08-02
申请号:CN201710618257.7
申请日:2017-07-26
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00711 , G06K9/00751 , G06K9/6215 , G06K2009/00738 , G06T7/215 , G06T7/246 , G06T2207/10016 , G06T2207/30232 , G06T2207/30241
Abstract: 本发明公布了一种基于超图转变模型的视频中暴力事件检测方法,包括前景目标轨迹提取过程、构建超图与相似度量过程和构建超图转变描述子过程;采用超图描述特征点的空间关系,反映运动的姿态信息;为时间序列中相关联的超图之间的转变建模并提出特征描述子HVC,能有效反映动作的强度及稳定性。该方法先对特征点的空间关系以及特征点群体的转变情况分别进行分析,再将其进行联合分析;本发明方法对视频中杂乱的不规律行为敏感,适用于暴力事件的检测。
-
-
-
-
-
-
-
-
-