-
公开(公告)号:CN109409257A
公开(公告)日:2019-03-01
申请号:CN201811181395.4
申请日:2018-10-11
Applicant: 北京大学深圳研究生院
Abstract: 本发明涉及数字图像处理技术领域,具体为一种基于弱监督学习的视频时序动作检测方法。该方法具体步骤是,步骤1:把视频输入分类器,分别得到不同的检测置信度;步骤2:融合视频在不同分类器的得分;步骤3:条件随机场精调结果;检测阶段的步骤是,步骤4:把待检测视频输入训练出的分类器,得到不同的检测置信度;步骤5:通过FC-CRF优化融合不同的检测置信度。本方法可将人类的先验知识和神经网络的输出结合起来,实验结果表明FC-CRF在ActivityNet上提高了20.8%mAP@0.5的检测性能。
-
公开(公告)号:CN110348567B
公开(公告)日:2022-10-25
申请号:CN201910635623.9
申请日:2019-07-15
Applicant: 北京大学深圳研究生院
Abstract: 一种基于自动寻址和递归信息整合的内存网络方法。该方法基于自动寻址和递归信息整合的内存神经网络框架,是一种高效和轻量级的内存网络方法,通过时间和空间复杂度较低的自动寻址操作对内存进行读写,并通过一种新颖的计算单元对内存信息进行有效利用,整个框架具有高效、快速、通用性强的特点,适用于各种时序处理任务,并表现出超越传统LSTM和之前的内存网络的性能。
-
公开(公告)号:CN108898076B
公开(公告)日:2022-07-01
申请号:CN201810607040.0
申请日:2018-06-13
Applicant: 北京大学深圳研究生院
Abstract: 一种视频行为时间轴定位及候选框提取的方法,该方法是基于未裁剪视频数据的、深度强化学习的视频行为时间轴候选框提取方法,具体步骤是:首先,在视频行为时间轴定位任务上建立了马尔科夫模型,将视频行为时间轴定位任务转化为求解马尔科夫决策过程;然后,使用经典的深度强化学习算法DQN来求解马尔科夫决策过程,使得算法自动调整时间轴窗口的长度与位置;最后,使用训练出来的智能体模型和一个动作/背景二分类器,来定位视频中的人类行为,产生时间轴候选框,以供后续更精确的定位和分析。本发明在效率与效果上超越了目前大多数先进算法,可用于定位视频中的人类行为。
-
公开(公告)号:CN107451553A
公开(公告)日:2017-12-08
申请号:CN201710618257.7
申请日:2017-07-26
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00711 , G06K9/00751 , G06K9/6215 , G06K2009/00738 , G06T7/215 , G06T7/246 , G06T2207/10016 , G06T2207/30232 , G06T2207/30241
Abstract: 本发明公布了一种基于超图转变模型的视频中暴力事件检测方法,包括前景目标轨迹提取过程、构建超图与相似度量过程和构建超图转变描述子过程;采用超图描述特征点的空间关系,反映运动的姿态信息;为时间序列中相关联的超图之间的转变建模并提出特征描述子HVC,能有效反映动作的强度及稳定性。该方法先对特征点的空间关系以及特征点群体的转变情况分别进行分析,再将其进行联合分析;本发明方法对视频中杂乱的不规律行为敏感,适用于暴力事件的检测。
-
公开(公告)号:CN110348567A
公开(公告)日:2019-10-18
申请号:CN201910635623.9
申请日:2019-07-15
Applicant: 北京大学深圳研究生院
Abstract: 一种基于自动寻址和递归信息整合的内存网络方法。该方法基于自动寻址和递归信息整合的内存神经网络框架,是一种高效和轻量级的内存网络方法,通过时间和空间复杂度较低的自动寻址操作对内存进行读写,并通过一种新颖的计算单元对内存信息进行有效利用,整个框架具有高效、快速、通用性强的特点,适用于各种时序处理任务,并表现出超越传统LSTM和之前的内存网络的性能。
-
公开(公告)号:CN107451553B
公开(公告)日:2019-08-02
申请号:CN201710618257.7
申请日:2017-07-26
Applicant: 北京大学深圳研究生院
CPC classification number: G06K9/00711 , G06K9/00751 , G06K9/6215 , G06K2009/00738 , G06T7/215 , G06T7/246 , G06T2207/10016 , G06T2207/30232 , G06T2207/30241
Abstract: 本发明公布了一种基于超图转变模型的视频中暴力事件检测方法,包括前景目标轨迹提取过程、构建超图与相似度量过程和构建超图转变描述子过程;采用超图描述特征点的空间关系,反映运动的姿态信息;为时间序列中相关联的超图之间的转变建模并提出特征描述子HVC,能有效反映动作的强度及稳定性。该方法先对特征点的空间关系以及特征点群体的转变情况分别进行分析,再将其进行联合分析;本发明方法对视频中杂乱的不规律行为敏感,适用于暴力事件的检测。
-
公开(公告)号:CN108898076A
公开(公告)日:2018-11-27
申请号:CN201810607040.0
申请日:2018-06-13
Applicant: 北京大学深圳研究生院
Abstract: 一种视频行为时间轴定位及候选框提取的方法,该方法是基于未裁剪视频数据的、深度强化学习的视频行为时间轴候选框提取方法,具体步骤是:首先,在视频行为时间轴定位任务上建立了马尔科夫模型,将视频行为时间轴定位任务转化为求解马尔科夫决策过程;然后,使用经典的深度强化学习算法DQN来求解马尔科夫决策过程,使得算法自动调整时间轴窗口的长度与位置;最后,使用训练出来的智能体模型和一个动作/背景二分类器,来定位视频中的人类行为,产生时间轴候选框,以供后续更精确的定位和分析。本发明在效率与效果上超越了目前大多数先进算法,可用于定位视频中的人类行为。
-
-
-
-
-
-