一种基于TR-SlowFast的人体跌倒检测方法

    公开(公告)号:CN118486086A

    公开(公告)日:2024-08-13

    申请号:CN202410712696.4

    申请日:2024-06-04

    Abstract: 本发明公开了一种基于TR‑SlowFast的人体跌倒检测方法,该方法包括:通过摄像头获取含跌倒行为的可见光视频数据,对图像帧进行数据增强、剪裁和抽帧;将预处理得到的图像帧序列输入到由SlowFast修改得到的TR‑SlowFast网络中获得跌倒检测结果。TR‑SlowFast网络模型具体指将SlowFast网络的fast支路的ResNet模块替换为F‑Res2Net模块,F‑Res2Net改进了Res2Net对于分组特征的处理方式,使用跳跃连接实现fast支路的不同模块的连接,在每个F‑Res2Net模块之后增加CA注意力模块,在最后一个CA注意力模块之后增加通道混洗模块;将slow支路的ResNet模块替换为S‑GhostNet模块,其中S‑GhostNet为通过特征融合和增加EGC注意力模块修改GhostNet所得,EGC注意力模块为修改的GC注意力模块。

    一种基于特征解耦的弱监督视频异常检测方法

    公开(公告)号:CN118485947A

    公开(公告)日:2024-08-13

    申请号:CN202410712382.4

    申请日:2024-06-04

    Abstract: 本发明公开了一种基于特征解耦的弱监督视频异常检测方法。该方法首先采集正常和异常视频构建训练数据集,然后利用预训练的视觉‑语言模型获取视频和文本标签的嵌入表示。接着,通过构建局部‑全局时间模块,将视频特征分别从局部和全局的时间依赖性进行建模,以更好地捕获视频中的时间信息。此外,通过特征解耦模块将视频特征和文本标签的共享特征有效地解耦,并将文本标签的共享特征融入到视频特征中,以增强视频特征的表示能力。最后,通过构建分类网络和使用多实例学习方法训练整个神经网络,实现对视频异常事件的准确检测。本发明通过局部‑全局时间模块的设计,有效地捕获了视频数据中的时间依赖,并通过特征解耦模块将视频特征与文本标签特征进行有效地解耦,通过将视频特征和文本标签共享特征的有效融合,提高了视频特征的表示能力。

    一种基于STMUnet的视频异常事件检测算法

    公开(公告)号:CN118506245A

    公开(公告)日:2024-08-16

    申请号:CN202410712244.6

    申请日:2024-06-04

    Abstract: 本发明公开了一种基于STMUnet的视频异常检测算法。本发明针对基于帧预测的视频异常检测算法的时间和空间的强相关性提出了STMUnet网络,该网络利用了Unet网络优秀的重构能力又结合了本发明时空转换模块的时空建模能力;为了加强网络对正常视频帧的重构能力而又抑制异常视频帧的重构能力,本发明在Unet网络的原始解码器D的倒数第二个上采样后插入了一个自监督掩码卷积Transformer方差模块SSMCTVB(Self‑Supervised Masked Convolutional Transformer Variance Block for Anomaly Detection),该模块使用掩码卷积将局部特征信息整合为全局特征信息,同时融合方差注意力与Transformer通道注意力,以加强网络对异常帧的区分能力。本发明基于STMUnet的视频异常检测算法具有泛化性强、精度高的特点。

Patent Agency Ranking