-
公开(公告)号:CN118486086A
公开(公告)日:2024-08-13
申请号:CN202410712696.4
申请日:2024-06-04
Applicant: 华南农业大学
IPC: G06V40/20 , G06V20/40 , G06V10/44 , G06V10/42 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/048
Abstract: 本发明公开了一种基于TR‑SlowFast的人体跌倒检测方法,该方法包括:通过摄像头获取含跌倒行为的可见光视频数据,对图像帧进行数据增强、剪裁和抽帧;将预处理得到的图像帧序列输入到由SlowFast修改得到的TR‑SlowFast网络中获得跌倒检测结果。TR‑SlowFast网络模型具体指将SlowFast网络的fast支路的ResNet模块替换为F‑Res2Net模块,F‑Res2Net改进了Res2Net对于分组特征的处理方式,使用跳跃连接实现fast支路的不同模块的连接,在每个F‑Res2Net模块之后增加CA注意力模块,在最后一个CA注意力模块之后增加通道混洗模块;将slow支路的ResNet模块替换为S‑GhostNet模块,其中S‑GhostNet为通过特征融合和增加EGC注意力模块修改GhostNet所得,EGC注意力模块为修改的GC注意力模块。
-
公开(公告)号:CN118485947A
公开(公告)日:2024-08-13
申请号:CN202410712382.4
申请日:2024-06-04
Applicant: 华南农业大学
IPC: G06V20/40 , G06V20/52 , G06V10/44 , G06V10/42 , G06V10/62 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/042 , G06N3/0464 , G06N3/0455 , G06N3/0985 , G06N3/0895 , G06N3/048
Abstract: 本发明公开了一种基于特征解耦的弱监督视频异常检测方法。该方法首先采集正常和异常视频构建训练数据集,然后利用预训练的视觉‑语言模型获取视频和文本标签的嵌入表示。接着,通过构建局部‑全局时间模块,将视频特征分别从局部和全局的时间依赖性进行建模,以更好地捕获视频中的时间信息。此外,通过特征解耦模块将视频特征和文本标签的共享特征有效地解耦,并将文本标签的共享特征融入到视频特征中,以增强视频特征的表示能力。最后,通过构建分类网络和使用多实例学习方法训练整个神经网络,实现对视频异常事件的准确检测。本发明通过局部‑全局时间模块的设计,有效地捕获了视频数据中的时间依赖,并通过特征解耦模块将视频特征与文本标签特征进行有效地解耦,通过将视频特征和文本标签共享特征的有效融合,提高了视频特征的表示能力。
-
公开(公告)号:CN118486084A
公开(公告)日:2024-08-13
申请号:CN202410712645.1
申请日:2024-06-04
Applicant: 华南农业大学
IPC: G06V40/20 , G06V20/40 , G06V10/44 , G06V10/42 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/0985 , G06N3/048
Abstract: 本发明公开了一种基于Multi‑YOWO的人体行为识别方法,该方法包括:通过采集得到的RGB视频数据生成骨骼热图组,根据骨骼热图组的活动区域对RGB关键帧进行裁剪;将获取得到的骨骼热图组和RGB关键帧输入到Multi‑YOWO模型中获得人体行为识别结果。Multi‑YOWO模型具体指将YOWO的3D主干网络3D‑ResNet替换为DC‑PoseC3D网络,其中DC‑PoseC3D网络是通过将ResNet模块中的1×1×1conv、1×3×3conv、1×1×1conv依次替换为1×1×1GSconv、1×3×3DC‑GSconv、1×1×1GSconv,并且在1×1×1GSconv之后增加SA注意力模块所得,其中DC‑GSconv是通过将GSconv中的普通卷积替换为分组且空洞率不同的空洞卷积所得。
-
公开(公告)号:CN118485946A
公开(公告)日:2024-08-13
申请号:CN202410712286.X
申请日:2024-06-04
Applicant: 华南农业大学
IPC: G06V20/40 , G06V20/52 , G06V10/44 , G06V10/42 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/088
Abstract: 本发明公开了一种基于局部‑全局存储器U‑Net的视频异常检测算法。该算法首先采集正常和异常的视频,并对视频进行预处理以得到训练样本。然后,通过U‑Net的编码器将训练样本进行编码得到特征图,将特征图输入到局部‑全局存储器中进行查询,同时根据查询分数来更新局部和全局存储器。接着,通过U‑Net的解码器将特征图重构为预测帧,并进行自适应误差矫正。最后,通过最小化正常数据的重建损失,将视频序列输入到包含局部‑全局存储器的U‑Net深度神经网络中判断是否发生异常事件。本发明通过局部‑全局存储器保存了正常视频序列的局部和全局信息的正常原型,提高了深度神经网络对异常事件的识别能力,通过自适应误差纠正模块,缓解了存储器的累计误差缺陷,有效提高了异常检测的鲁棒性和稳定性。
-
公开(公告)号:CN118506245A
公开(公告)日:2024-08-16
申请号:CN202410712244.6
申请日:2024-06-04
Applicant: 华南农业大学
IPC: G06V20/40 , G06V10/44 , G06V10/42 , G06V10/62 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/084
Abstract: 本发明公开了一种基于STMUnet的视频异常检测算法。本发明针对基于帧预测的视频异常检测算法的时间和空间的强相关性提出了STMUnet网络,该网络利用了Unet网络优秀的重构能力又结合了本发明时空转换模块的时空建模能力;为了加强网络对正常视频帧的重构能力而又抑制异常视频帧的重构能力,本发明在Unet网络的原始解码器D的倒数第二个上采样后插入了一个自监督掩码卷积Transformer方差模块SSMCTVB(Self‑Supervised Masked Convolutional Transformer Variance Block for Anomaly Detection),该模块使用掩码卷积将局部特征信息整合为全局特征信息,同时融合方差注意力与Transformer通道注意力,以加强网络对异常帧的区分能力。本发明基于STMUnet的视频异常检测算法具有泛化性强、精度高的特点。
-
公开(公告)号:CN118486083A
公开(公告)日:2024-08-13
申请号:CN202410712601.9
申请日:2024-06-04
Applicant: 华南农业大学
IPC: G06V40/20 , G06V20/40 , G06V10/25 , G06V10/44 , G06V10/42 , G06V10/52 , G06V10/54 , G06V10/80 , G06V10/764 , G06V10/766 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/0985 , G06N3/048
Abstract: 本发明公开了一种基于MS‑YOWOv2的人体行为识别方法,该方法包括:使用RGB摄像头采集RGB视频数据,对RGB视频数据进行预处理,将获取得到的视频帧和关键帧输入到MS‑YOWOv2模型中获得人体行为识别结果。MS‑YOWOv2模型具体指将YOWOv2的2D主干网络CSPDarknet53网络替换为MS‑ResNeSt网络,其中MS‑ResNeSt网络是指将ResNeSt中的SA模块替换为DP‑SA模块、在网络末端增加PSA‑PPM模块、增加可变形卷积层和与特征金字塔结合所得,其中DP‑SA模块是通过将ResNeSt中的SA模块的单支路全局平均池化替换为并行的全局最大池化和全局平均池化双分支结构并进一步通过5×5卷积处理所得;PSA‑PPM模块是通过在PPM模块中增加PSA模块和替换STM模块所得。
-
-
-
-
-