-
公开(公告)号:CN114387539A
公开(公告)日:2022-04-22
申请号:CN202111572410.X
申请日:2021-12-21
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于SimAM注意力机制的行为识别方法,充分利用无参数注意力模块SimAM的无参数特点,将之与双流网络模型有机结合,可以在提高识别准确率的同时减少网络参数和训练难度,且可以根据输入视频高低层特征含量(即分辨率)的不同,适应性地采用不同的融合方式,提高对细节的感知能力,得出一种高性能的行为识别算法,对双流网络模型进行了更加有效优化,增加了这种方案的行为识别算法的工程性和准确性。
-
公开(公告)号:CN113807318A
公开(公告)日:2021-12-17
申请号:CN202111182076.7
申请日:2021-10-11
Applicant: 南京信息工程大学
Abstract: 本发明公开了一种基于双流卷积神经网络和双向GRU的动作识别方法,包括以下步骤:对视频等间距采样M帧图像,缩放;将第一帧图像输入空间流CNN,得到空间流特征图;计算堆叠,将其输入时间流CNN,得到时间流特征图;级联,使用三层卷积神经网络融合,得到融合后的特征图;将特征图送入两层全连接层,然后送入softmax函数得到单帧分类结果;继续以上的步骤,计算剩余帧的分类结果;将识别结果送入双向门控单元,得到各视频抽样帧的分类结果ht;基于高斯加权的融合方式,将M组ht进行融合,得到最终的视频分类结果,本方法在保持模型准确性的情况下,减少了模型参数,简化了模型结构,提高了模型运算速度;采用高斯加权融合的方式,提高了分类结果的可靠性。
-
公开(公告)号:CN113807318B
公开(公告)日:2023-10-31
申请号:CN202111182076.7
申请日:2021-10-11
Applicant: 南京信息工程大学
IPC: G06V20/40 , G06V10/80 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0442 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于双流卷积神经网络和双向GRU的动作识别方法,包括以下步骤:对视频等间距采样M帧图像,缩放;将第一帧图像输入空间流CNN,得到空间流特征图;计算堆叠,将其输入时间流CNN,得到时间流特征图;级联,使用三层卷积神经网络融合,得到融合后的特征图;将特征图送入两层全连接层,然后送入softmax函数得到单帧分类结果;继续以上的步骤,计算剩余帧的分类结果;将识别结果送入双向门控单元,得到各视频抽样帧的分类结果ht;基于高斯加权的融合方式,将M组ht进行融合,得到最终的视频分类结果,本方法在保持模型准确性的情况下,减少了模型参数,简化了模型结构,提高了模型运算速度;采用高斯加权融合的方式,提高了分类结果的可靠性。
-
公开(公告)号:CN114387539B
公开(公告)日:2025-04-04
申请号:CN202111572410.X
申请日:2021-12-21
Applicant: 南京信息工程大学
IPC: G06V20/40 , G06V10/44 , G06V10/56 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于SimAM注意力机制的行为识别方法,充分利用无参数注意力模块SimAM的无参数特点,将之与双流网络模型有机结合,可以在提高识别准确率的同时减少网络参数和训练难度,且可以根据输入视频高低层特征含量(即分辨率)的不同,适应性地采用不同的融合方式,提高对细节的感知能力,得出一种高性能的行为识别算法,对双流网络模型进行了更加有效优化,增加了这种方案的行为识别算法的工程性和准确性。
-
-
-