-
公开(公告)号:CN114022928B
公开(公告)日:2024-07-26
申请号:CN202111235542.3
申请日:2021-10-22
Applicant: 长沙理工大学
IPC: G06V40/16 , G06V20/40 , G06V40/40 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/082
Abstract: 本发明公开了一种基于双流的Deepfakes视频检测方法及系统,该方法包括:使用自适应视频帧提取方法提取视频中的人脸图像;提取人脸图像的篡改伪影特征,对篡改伪影特征进行全局平均池化,获得第一特征图;获取人脸图像对应的残差图像;提取残差图像的篡改痕迹特征,对篡改痕迹特征进行全局平均池化,获得第二特征图;融合第一特征图和第二特征图,获得融合特征图;将融合特征图进行分类,获得目标检测结果。本申请即能保证Deepfake视频检测性能,又能减少资源浪费,还能够抑制拟合图像内容特征,防止过拟合,提高了Deepfake视频检测性能。
-
公开(公告)号:CN114022928A
公开(公告)日:2022-02-08
申请号:CN202111235542.3
申请日:2021-10-22
Applicant: 长沙理工大学
Abstract: 本发明公开了一种基于双流的Deepfakes视频检测方法及系统,该方法包括:使用自适应视频帧提取方法提取视频中的人脸图像;提取人脸图像的篡改伪影特征,对篡改伪影特征进行全局平均池化,获得第一特征图;获取人脸图像对应的残差图像;提取残差图像的篡改痕迹特征,对篡改痕迹特征进行全局平均池化,获得第二特征图;融合第一特征图和第二特征图,获得融合特征图;将融合特征图进行分类,获得目标检测结果。本申请即能保证Deepfake视频检测性能,又能减少资源浪费,还能够抑制拟合图像内容特征,防止过拟合,提高了Deepfake视频检测性能。
-
公开(公告)号:CN114125455A
公开(公告)日:2022-03-01
申请号:CN202111394443.X
申请日:2021-11-23
Applicant: 长沙理工大学
IPC: H04N19/172 , H04N19/577 , H04N19/42 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的双向编码视频插帧方法、系统及设备,该方法获取目标视频中的两个相邻帧,使用第一编码器对两个相邻帧进行前向编码,获得第一编码特征,使用第二编码器对两个相邻帧进行后向编码,获得第二编码特征,将第一编码特征和第二编码特征进行融合,获得融合编码特征;使用解码器对融合编码特征进行解码,获得解码特征;对解码特征进行卷积获得卷积参数;基于卷积参数和两个相邻帧,计算获得目标合成帧。本申请使用了两个编码器对输入帧进行特征提取并融合提取的特征,让提取的特征更加完整和丰富,加强了视频插帧质量。
-
公开(公告)号:CN113627285A
公开(公告)日:2021-11-09
申请号:CN202110845207.9
申请日:2021-07-26
Applicant: 长沙理工大学
Abstract: 本发明公开了一种视频取证方法、系统和介质,其中视频取证方法包括:获取目标视频;根据共谋算子获取所述目标视频中的每一图片帧对应的运动残差;将所述运动残差输入至训练完成后的高通滤波全卷积网络,得到所述高通滤波全卷积网络输出所述目标视频的取证结果。能够较好地对篡改的视频进行取证,取证效率高,有效降低了视频取证的难度,而且能够有效验证视频的原始性、完整性和真实性,具有较好的实用价值。
-
-
-