-
公开(公告)号:CN112733625B
公开(公告)日:2022-06-14
申请号:CN202011577163.8
申请日:2020-12-28
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于时域自注意力机制的假脸视频篡改检测方法及系统,该方法步骤包括:网络训练步骤和样本测试步骤,网络训练步骤主要包括视频预处理、搭建分割网络和训练,样本测试步骤主要包括视频预处理、搭建分割网络、依次通过三个模块预测篡改区域、对预测掩膜计算面部交并比,得到检测结果。本发明将空域的颜色特征、噪声特征和时域特征,输入包括双流特征提取模块、时域自注意力模块和上采样模块的神经网络中预测篡改区域,检测对象包括单张图片和多张视频帧图片,在不同数据库中均获得较理想的准确率,与现有其他算法相比,跨库测试性能明显提升,具有较大的潜在应用价值。
-
公开(公告)号:CN115331135A
公开(公告)日:2022-11-11
申请号:CN202210787371.3
申请日:2022-07-06
Applicant: 华南理工大学
IPC: G06V20/40 , G06N3/04 , G06N3/08 , G06T5/50 , G06V10/42 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/82 , G06V40/16
Abstract: 本发明公开了一种基于多域特征区域标准分数差异的Deepfake视频检测方法,包括下述步骤:数据集划分;视频分帧并提取待检测区域;构建双支路卷积神经网络;计算待检测区域的RGB特征和NSCT子带图像;NSCT子带图像按频带融合得到频域特征;通过纹理特征提取模块获得不同层级纹理特征的响应;将空域、频域特征支路的输出特征沿通道维度拼接,输入异常特征判别模块获得篡改区域预测掩膜;篡改区域预测掩膜经全连接层得到一维特征,与纹理特征提取模块输出特征拼接,经过全连接层和Softmax激活函数输出二分类预测结果。本发明能较好地结合空域和频域的特征信息,实现加强对纹理特征的响应,判别异常篡改痕迹,提高了模型的泛化能力。
-
公开(公告)号:CN110826440A
公开(公告)日:2020-02-21
申请号:CN201911029468.2
申请日:2019-10-28
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于眼动特征的换脸视频篡改检测方法及系统,该方法包括下述步骤:检测待测视频中的人眼区域,并对眼部特征点进行定位,并预测眼球中心位置;计算待测视频各帧的视线方向向量,并计算视线变化率序列和视线转移方向序列;根据视线变化率序列计算单眼灵活度;根据视线变化率序列计算双眼视线变化率吻合度,根据视线转移方向序列计算双眼视线转移方向吻合度;根据单眼灵活度、视线变化率吻合度、视线转移方向吻合度判断视频是否经过换脸篡改。本发明从生物信号的角度出发,提取视频中人眼眼球运动的固有特征,从单眼灵活度和双眼吻合度描述真实视频与换脸视频之间的眼动特征差异,提升了检测效果,并具有通用性和实时性。
-
公开(公告)号:CN110826440B
公开(公告)日:2022-05-24
申请号:CN201911029468.2
申请日:2019-10-28
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于眼动特征的换脸视频篡改检测方法及系统,该方法包括下述步骤:检测待测视频中的人眼区域,并对眼部特征点进行定位,并预测眼球中心位置;计算待测视频各帧的视线方向向量,并计算视线变化率序列和视线转移方向序列;根据视线变化率序列计算单眼灵活度;根据视线变化率序列计算双眼视线变化率吻合度,根据视线转移方向序列计算双眼视线转移方向吻合度;根据单眼灵活度、视线变化率吻合度、视线转移方向吻合度判断视频是否经过换脸篡改。本发明从生物信号的角度出发,提取视频中人眼眼球运动的固有特征,从单眼灵活度和双眼吻合度描述真实视频与换脸视频之间的眼动特征差异,提升了检测效果,并具有通用性和实时性。
-
公开(公告)号:CN119027996A
公开(公告)日:2024-11-26
申请号:CN202410970065.2
申请日:2024-07-19
Applicant: 华南理工大学
IPC: G06V40/16 , G06V10/774
Abstract: 本发明公开了一种基于文本引导的细粒度活体人脸属性编辑方法及系统,该方法包括下述步骤:获取人脸图像数据集和文本数据集,并进行数据预处理;基于人脸身份特征提取模块、面部关键点特征提取模块分别提取人脸图像的多尺度人脸身份特征和多尺度面部关键点特征;基于多尺度特征混合模块将多尺度人脸身份特征和多尺度面部关键点特征进行特征拼接,并加权平均得到人脸身份结构特征;分别将人脸图像和原始文本嵌入分别作为图像模态和文本模态注入到条件扩散模型中;进行两阶段的训练;基于原始文本和引导文本获得最终的文本条件向量,输入训练后的条件扩散模型,生成细粒度的人脸属性编辑图片。本发明实现人脸属性编辑的精细化和多样化。
-
公开(公告)号:CN112733625A
公开(公告)日:2021-04-30
申请号:CN202011577163.8
申请日:2020-12-28
Applicant: 华南理工大学
Abstract: 本发明公开了一种基于时域自注意力机制的假脸视频篡改检测方法及系统,该方法步骤包括:网络训练步骤和样本测试步骤,网络训练步骤主要包括视频预处理、搭建分割网络和训练,样本测试步骤主要包括视频预处理、搭建分割网络、依次通过三个模块预测篡改区域、对预测掩膜计算面部交并比,得到检测结果。本发明将空域的颜色特征、噪声特征和时域特征,输入包括双流特征提取模块、时域自注意力模块和上采样模块的神经网络中预测篡改区域,检测对象包括单张图片和多张视频帧图片,在不同数据库中均获得较理想的准确率,与现有其他算法相比,跨库测试性能明显提升,具有较大的潜在应用价值。
-
-
-
-
-