一种基于弱监督学习的视频时序动作检测方法

    公开(公告)号:CN109409257A

    公开(公告)日:2019-03-01

    申请号:CN201811181395.4

    申请日:2018-10-11

    Abstract: 本发明涉及数字图像处理技术领域,具体为一种基于弱监督学习的视频时序动作检测方法。该方法具体步骤是,步骤1:把视频输入分类器,分别得到不同的检测置信度;步骤2:融合视频在不同分类器的得分;步骤3:条件随机场精调结果;检测阶段的步骤是,步骤4:把待检测视频输入训练出的分类器,得到不同的检测置信度;步骤5:通过FC-CRF优化融合不同的检测置信度。本方法可将人类的先验知识和神经网络的输出结合起来,实验结果表明FC-CRF在ActivityNet上提高了20.8%mAP@0.5的检测性能。

    一种视频行为时间轴定位及候选框提取的方法

    公开(公告)号:CN108898076B

    公开(公告)日:2022-07-01

    申请号:CN201810607040.0

    申请日:2018-06-13

    Abstract: 一种视频行为时间轴定位及候选框提取的方法,该方法是基于未裁剪视频数据的、深度强化学习的视频行为时间轴候选框提取方法,具体步骤是:首先,在视频行为时间轴定位任务上建立了马尔科夫模型,将视频行为时间轴定位任务转化为求解马尔科夫决策过程;然后,使用经典的深度强化学习算法DQN来求解马尔科夫决策过程,使得算法自动调整时间轴窗口的长度与位置;最后,使用训练出来的智能体模型和一个动作/背景二分类器,来定位视频中的人类行为,产生时间轴候选框,以供后续更精确的定位和分析。本发明在效率与效果上超越了目前大多数先进算法,可用于定位视频中的人类行为。

    一种视频行为时间轴定位及候选框提取的方法

    公开(公告)号:CN108898076A

    公开(公告)日:2018-11-27

    申请号:CN201810607040.0

    申请日:2018-06-13

    Abstract: 一种视频行为时间轴定位及候选框提取的方法,该方法是基于未裁剪视频数据的、深度强化学习的视频行为时间轴候选框提取方法,具体步骤是:首先,在视频行为时间轴定位任务上建立了马尔科夫模型,将视频行为时间轴定位任务转化为求解马尔科夫决策过程;然后,使用经典的深度强化学习算法DQN来求解马尔科夫决策过程,使得算法自动调整时间轴窗口的长度与位置;最后,使用训练出来的智能体模型和一个动作/背景二分类器,来定位视频中的人类行为,产生时间轴候选框,以供后续更精确的定位和分析。本发明在效率与效果上超越了目前大多数先进算法,可用于定位视频中的人类行为。

Patent Agency Ranking