-
-
公开(公告)号:CN113011399B
公开(公告)日:2023-10-03
申请号:CN202110468639.2
申请日:2021-04-28
Applicant: 南通大学
IPC: G06V20/40 , G06V10/774 , G06V10/82 , G06N3/0475 , G06N3/045
Abstract: 本发明涉及一种基于生成协同判别网络的视频异常检测方法及系统,方法包括:采集正常的视频监控数据并转换为原始帧,选取原始未来帧,并在其中添加噪声,得到噪声未来帧;将原始帧输入到生成器中,得到预测未来帧;计算预测未来帧和原始未来帧的前一帧之间的光流信息;计算原始未来帧和原始未来帧的前一帧之间的光流信息,二者的差异,将预测未来帧和原始未来帧输入至判别器中,构建判别器的目标函数;将噪声未来帧和预测未来帧输入至协同器中,构建协同器的目标函数;构建生成器的目标函数;更新生成器,确定测试时的预测未来帧;计算异常分数,根据所述异常分数确定待测帧是否存在异常。本发明中的上述方法能够提高视频中异常事件的检测精度。
-
公开(公告)号:CN109544477A
公开(公告)日:2019-03-29
申请号:CN201811410032.3
申请日:2018-11-23
Applicant: 南通大学 , 南通先进通信技术研究院有限公司
Abstract: 本发明提出了一种基于自适应字典学习稀疏表示的图像去噪算法,该算法首先根据图像结构相似性选择图像块,并构建各图像块的字典原子;然后计算不同图像块中原子的灰色关联,从而聚类并选择能够适应噪声的字典原子;最后建立自适应字典稀疏表示实现图像去噪。通过在大规模标准数据库上进行测试,本发明算法能够很好地去除噪声,有效地捕捉图像细节。本发明将灰色关联应用于字典学习稀疏表示中,解决了字典原子的自动选择问题,提高稀疏表示的性能;能够准确地分辨出图像中的噪声并去除。
-
公开(公告)号:CN116612404A
公开(公告)日:2023-08-18
申请号:CN202310236462.2
申请日:2023-03-13
Applicant: 南通大学
IPC: G06V20/40 , G06N3/0455 , G06N3/08 , G06V10/82
Abstract: 本发明提出了一种基于信息驱动的双流叉网架构视频异常检测方法及设备,本发明方法包括:构建双流叉网架构模型,将待检测视频帧输入双流叉网架构模,其中双流叉网架构模型包含外观叉网和动态叉网;所述运动叉网包含运动自编码器和运动辅助编码器;所述外观叉网包含外观自动编码器、信息重校正网络和外观辅助编码器;计算双流叉网架构模型的总损失函数;将待测试视频输入双流叉网架构模型中,计算外观叉网和运动叉网的总损失函数,得到视频异常分数。本发明使用双流叉网架构来分离运动特征和外观特征,在外观叉网中使用信息重校正网络来减少信息丢失,添加辅助编码器来获得更深层的语义信息,提高视频异常检测性能。
-
公开(公告)号:CN114581738A
公开(公告)日:2022-06-03
申请号:CN202210285382.1
申请日:2022-03-22
Applicant: 南通大学
IPC: G06V10/774 , G06V40/20 , G06K9/62 , G06N3/04
Abstract: 本发明公开了一种行为预测网络训练方法、系统及行为异常检测方法、系统,涉及视频异常检测技术领域。训练方法包括:基于卷积网络和U‑Net网络构建异构孪生网络;获取训练视频,所述训练视频包括若干时间连续的包含正常行为的RGB视频帧和光流帧;分别通过RGB视频帧和光流帧对卷积网络和U‑Net网络进行训练;确定表观损失函数和运动损失函数;根据表观损失函数和所述运动损失函数,确定多约束损失函数;根据多约束损失函数调整卷积网络和U‑Net网络中的权重,以对异构孪生网络进行训练,得到训练好的异构孪生网络。通过本发明能够有效对复杂场景下快速运动、外观相似的运动物体进行行为预测,进而能够有效检测出异常行为。
-
公开(公告)号:CN109190524B
公开(公告)日:2021-08-13
申请号:CN201810941368.6
申请日:2018-08-17
Applicant: 南通大学
Abstract: 本发明提出了一种基于生成对抗网络的人体动作识别方法,该方法首先设计分步式生成识别网络模型,在对抗网络的基础上构建分类器,实现图像的生成与分类功能;其次在判别器中引入结构相似度,通过增加约束条件来提高生成图像的质量;最后在符合日常生活的人体动作图像库中完成图像的生成与识别。本发明通过将图像的自然生成和识别联合,解决了样本不足情况下识别率低的问题;在图像的扩充和识别方面,具有扩充样本自然、识别率高、鲁棒性强的特点。
-
公开(公告)号:CN108182410A
公开(公告)日:2018-06-19
申请号:CN201711470592.3
申请日:2017-12-28
Applicant: 南通大学 , 南通先进通信技术研究院有限公司
Abstract: 本发明提出了一种联合目标区域定位和深度特征学习的跌倒识别算法,该算法首先利用Kinect采集和分析彩色图像和深度图像;然后根据图象中目标区域所处的位置,实现目标区域的自适应定位,优化图像;最后对优化后的图像进行深度特征学习,获取分类特征,判断是否跌倒。通过对大量的人体行为样本进行测试,本发明算法的识别率达到了100%。本发明通过利用目标区域定位和深度特征学习相结合的方法,解决了传统视频图像处理存在的实时性问题和隐私问题,进一步提高识别率;避免了传统算法中复杂的模型建立,减小计算成本;不仅具有好的鲁棒性,而且提高了识别效率。
-
公开(公告)号:CN115063742B
公开(公告)日:2024-09-27
申请号:CN202210663982.7
申请日:2022-06-13
Applicant: 南通大学
IPC: G06V20/52 , G06V20/40 , G06V10/74 , G06V10/774 , G06N3/0475 , G06N3/0464 , G06N3/0455 , G06N3/048 , G06N3/094
Abstract: 本发明属于智能视频处理技术领域,具体涉及一种基于灰色对抗感知网络的视频异常事件检测方法。本发明针对编码器和解码器不能较好地获得监控视频中正常和异常事件的判别性特征,提出了一个灰色感知单元来感知判别性特征,并引入邓氏灰色关联来优化感知单元的多样性,提高异常感知能力;使异常检测精度提高。针对异常区域占比小且特征提取不充分的情况,设计了基于对抗性的判别网络,学习预测未来帧和真实未来帧中小目标区域的细节特征,降低异常漏检的概率;使异常检测精度提高。本发明针对异常检测容易受平移、光照等因素的影响,引入了灰色绝对关联,增强对帧间光照变化的鲁棒性,减少误检。
-
公开(公告)号:CN115063742A
公开(公告)日:2022-09-16
申请号:CN202210663982.7
申请日:2022-06-13
Applicant: 南通大学
Abstract: 本发明属于智能视频处理技术领域,具体涉及一种基于灰色对抗感知网络的视频异常事件检测方法。本发明针对编码器和解码器不能较好地获得监控视频中正常和异常事件的判别性特征,提出了一个灰色感知单元来感知判别性特征,并引入邓氏灰色关联来优化感知单元的多样性,提高异常感知能力;使异常检测精度提高。针对异常区域占比小且特征提取不充分的情况,设计了基于对抗性的判别网络,学习预测未来帧和真实未来帧中小目标区域的细节特征,降低异常漏检的概率;使异常检测精度提高。本发明针对异常检测容易受平移、光照等因素的影响,引入了灰色绝对关联,增强对帧间光照变化的鲁棒性,减少误检。
-
公开(公告)号:CN113011399A
公开(公告)日:2021-06-22
申请号:CN202110468639.2
申请日:2021-04-28
Applicant: 南通大学
Abstract: 本发明涉及一种基于生成协同判别网络的视频异常检测方法及系统,方法包括:采集正常的视频监控数据并转换为原始帧,选取原始未来帧,并在其中添加噪声,得到噪声未来帧;将原始帧输入到生成器中,得到预测未来帧;计算预测未来帧和原始未来帧的前一帧之间的光流信息;计算原始未来帧和原始未来帧的前一帧之间的光流信息,二者的差异,将预测未来帧和原始未来帧输入至判别器中,构建判别器的目标函数;将噪声未来帧和预测未来帧输入至协同器中,构建协同器的目标函数;构建生成器的目标函数;更新生成器,确定测试时的预测未来帧;计算异常分数,根据所述异常分数确定待测帧是否存在异常。本发明中的上述方法能够提高视频中异常事件的检测精度。
-
-
-
-
-
-
-
-
-