基于语义指导的视频行为检测方法

    公开(公告)号:CN114332723A

    公开(公告)日:2022-04-12

    申请号:CN202111669113.7

    申请日:2021-12-31

    Abstract: 本发明公开了基于语义指导的视频行为检测方法,通过特征的下采样来扩大时间感受野,并将线性插值用于上采样环节,从而得到视频时序上的粗略语义信息,用于指导时间卷积模型的输出;同时对模型的主干网络使用参数共享结构,将网络分为了三部分:生成粗略预测、细化和最终预测,以实现网络层数与参数量的最佳搭配;针对模型的时间建模能力,本发明提供了一种不需人工标注的视频速度预测的自监督辅助任务,可通过随机采样率的变换来模拟视频的播放速度,以辅助主干网络生成质量更高的预测。本发明主要针对以人为主体的视频,具有参数量低、精度高,方便对长视频进行操作等特点;对于无人的视频,本发明根据转场对视频进行分割。

    一种基于图神经网络的密集事件描述方法

    公开(公告)号:CN113158735A

    公开(公告)日:2021-07-23

    申请号:CN202110075596.1

    申请日:2021-01-20

    Abstract: 本发明公开了一种基于图神经网络的密集事件描述方法,能够根据视频生成包含全部事件的时间及对应文字描述。该方法包括以下步骤:利用光流法、3D卷积网络和2D卷积网络分别对视频数据提取特征;对2D卷积网络提取的特征建立空间图,通过图卷积网络迭代后生成的特征与光流法、3D卷积特征拼接为长特征;采用锚边框对不同时间段的特征进行检测,划分为不同密集事件时间区域;采用非极大值抑制策略来消除重叠区域过多及分数较低的候选时间区域;对每个候选区域特征构建时间图,通过GAT更新每节点特征;将每个候选区域特征通过LSTM解码成对应文字输出。本发明结合空间信息和时序信息生成更精确的事件发生时间和对应的描述语言。

    一种基于图神经网络的密集事件描述方法

    公开(公告)号:CN113158735B

    公开(公告)日:2024-08-23

    申请号:CN202110075596.1

    申请日:2021-01-20

    Abstract: 本发明公开了一种基于图神经网络的密集事件描述方法,能够根据视频生成包含全部事件的时间及对应文字描述。该方法包括以下步骤:利用光流法、3D卷积网络和2D卷积网络分别对视频数据提取特征;对2D卷积网络提取的特征建立空间图,通过图卷积网络迭代后生成的特征与光流法、3D卷积特征拼接为长特征;采用锚边框对不同时间段的特征进行检测,划分为不同密集事件时间区域;采用非极大值抑制策略来消除重叠区域过多及分数较低的候选时间区域;对每个候选区域特征构建时间图,通过GAT更新每节点特征;将每个候选区域特征通过LSTM解码成对应文字输出。本发明结合空间信息和时序信息生成更精确的事件发生时间和对应的描述语言。

    一种基于高级语义信息特征编码的视频描述方法

    公开(公告)号:CN116091978A

    公开(公告)日:2023-05-09

    申请号:CN202310159288.6

    申请日:2023-02-24

    Abstract: 本发明提供一种基于高级语义信息特征编码的视频描述方法。该发明包括:通过人工智能网络预测输入视频序列中包含的多个独立事件,并输出各事件的起止时间以及相应文字描述;通过解耦地提取原生视频的空间与时序特征,摒弃传统骨干网络,保留更完整的语义信息;通过高级语义信息编码器以及特征融合模块提炼视频特征,对高级语义信息进行解码以获得视频描述特征,取得更好的描述效果;通过时间戳预测模块以及描述内容预测模块分别处理视频描述特征获得最终描述结果。本发明主要针对包含多个事件的视频,具有参数量低、精度高,方便对视频操作等特点;对于生成的描述信息,可根据应用场景实现分类、检索、辅助视听等任务。

    一种基于速度终点指导的自监督行人轨迹预测方法

    公开(公告)号:CN115937896A

    公开(公告)日:2023-04-07

    申请号:CN202211512613.4

    申请日:2022-11-28

    Abstract: 本发明公开了一种基于速度终点指导的自监督行人轨迹预测方法,能够根据行人及其邻居的历史轨迹,预测得到多条可能的未来轨迹。该方法包括以下步骤:利用图注意力网络和Transformer分别对过去和未来轨迹进行空间交互特征和时间特征提取;将得到的时空特征送入条件变分自编码器预测得到多个“粗糙”的终点和速度;通过聚类算法对多个“粗糙”的终点进行聚类,划分得到“细化”的终点;将过去的时空特征、“细化”的终点、速度送入解码器得到最终的多条预测轨迹。本发明充分考虑了行人轨迹的交互特征,使用双分支的特征提取网络分别提取时空特征,同时通过自监督任务在不增加额外标注的情况下预测得到了多个终点和速度,并用于指导最终的轨迹生成。更近一步,我们对预测得到的多个终点进行聚类,保留了多种潜在的可能的同时增加了轨迹多样性。

    基于语义指导的视频行为检测方法

    公开(公告)号:CN114332723B

    公开(公告)日:2024-03-22

    申请号:CN202111669113.7

    申请日:2021-12-31

    Abstract: 本发明公开了基于语义指导的视频行为检测方法,通过特征的下采样来扩大时间感受野,并将线性插值用于上采样环节,从而得到视频时序上的粗略语义信息,用于指导时间卷积模型的输出;同时对模型的主干网络使用参数共享结构,将网络分为了三部分:生成粗略预测、细化和最终预测,以实现网络层数与参数量的最佳搭配;针对模型的时间建模能力,本发明提供了一种不需人工标注的视频速度预测的自监督辅助任务,可通过随机采样率的变换来模拟视频的播放速度,以辅助主干网络生成质量更高的预测。本发明主要针对以人为主体的视频,具有参数量低、精度高,方便对长视频进行操作等特点;对于无人的视频,本发明根据转场对视频进行分割。

    一种面向动态视频监控的多车辆跟踪方法

    公开(公告)号:CN107506753B

    公开(公告)日:2021-01-05

    申请号:CN201710845857.7

    申请日:2017-09-19

    Abstract: 本发明公开一种面向动态视频监控多车辆跟踪方法,对于车辆的跟踪基于检测结果,并同时对检测出的多个目标车辆进行跟踪。包括:加载一段视频的图像序列;根据图像序列的第一张图像进行车辆识别;根据识别结果,保存所有目标在图像中的位置信息;根据保存的目标位置信息,对所有目标在视频中进行跟踪;接着通过识别对在跟踪过程中对跟踪结果进行调整。本发明的方法不仅在正常环境下可以实现理想的跟踪结果,在视频信息模糊,光照不足等恶劣的环境下,例如夜间拍环境下摄出的视频像素低,图像模糊、不清晰的情况,依然可以得到理想的跟踪结果。主要解决了目前车辆跟踪领域速度与准确率无法同时达到的问题。

Patent Agency Ranking