-
公开(公告)号:CN116630837B
公开(公告)日:2025-02-11
申请号:CN202310260849.1
申请日:2023-03-13
Applicant: 北京邮电大学
IPC: G06V20/40 , G06V10/774 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本申请提供一种双阶段视频去噪模型训练方法、视频去噪方法和系统,方法包括:采用各个噪声视频样本各自的无噪声视频数据以及各个图像帧组,对残差自注意力模型进行模型训练,使得残差自注意力模型先在第一阶段提取各个图像帧组中的主图像帧的动态特征以得到第一阶段去噪结果,再于第二阶段基于各个第一阶段去噪结果分别提取各个主图像帧的静态特征以得到第二阶段去噪结果,进而生成用于对视频去噪的双阶段视频去噪模型。本申请能够从两个阶段分别针对时间和空间两个维度的不同特点进行动态特征和静态特征的提取,能够有效提高训练得到的视频去噪模型的性能,进而能够有效提高双阶段视频去噪模型输出的视频去噪结果的鲁棒性、显著性及可靠性。
-
公开(公告)号:CN116630837A
公开(公告)日:2023-08-22
申请号:CN202310260849.1
申请日:2023-03-13
Applicant: 北京邮电大学
IPC: G06V20/40 , G06V10/774 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本申请提供一种双阶段视频去噪模型训练方法、视频去噪方法和系统,方法包括:采用各个噪声视频样本各自的无噪声视频数据以及各个图像帧组,对残差自注意力模型进行模型训练,使得残差自注意力模型先在第一阶段提取各个图像帧组中的主图像帧的动态特征以得到第一阶段去噪结果,再于第二阶段基于各个第一阶段去噪结果分别提取各个主图像帧的静态特征以得到第二阶段去噪结果,进而生成用于对视频去噪的双阶段视频去噪模型。本申请能够从两个阶段分别针对时间和空间两个维度的不同特点进行动态特征和静态特征的提取,能够有效提高训练得到的视频去噪模型的性能,进而能够有效提高双阶段视频去噪模型输出的视频去噪结果的鲁棒性、显著性及可靠性。
-
公开(公告)号:CN116310966B
公开(公告)日:2023-12-19
申请号:CN202310174096.2
申请日:2023-02-23
Applicant: 北京邮电大学
IPC: G06V20/40 , G06V10/774
Abstract: 本申请提供视频动作定位模型训练方法、视频动作定位方法和系统,方法包括:将视频样本中视频片段对应的片段特征输入分类器,以输出视频样本的第一动作定位结果数据;采用注意力机制在各个视频片段的片段特征之间分别针对每个视频样本内部以及相同类别的各个视频样本之间进行信息交互,并基于信息交互结果生成视频样本的第二动作定位结果数据;将该结果数据作为伪标签对第一动作定位结果数据进行监督以对分类器进行模型训练。本申请能够保留视频样本中更丰富的信息,能够生成更准确的伪标签来监督模型训练,进而能够有效提高训练得到的视频动作定位模型的性能以及采用视频动作定位模型进行视频动作定位的结果准确性及可靠性。
-
公开(公告)号:CN116310966A
公开(公告)日:2023-06-23
申请号:CN202310174096.2
申请日:2023-02-23
Applicant: 北京邮电大学
IPC: G06V20/40 , G06V10/774
Abstract: 本申请提供视频动作定位模型训练方法、视频动作定位方法和系统,方法包括:将视频样本中视频片段对应的片段特征输入分类器,以输出视频样本的第一动作定位结果数据;采用注意力机制在各个视频片段的片段特征之间分别针对每个视频样本内部以及相同类别的各个视频样本之间进行信息交互,并基于信息交互结果生成视频样本的第二动作定位结果数据;将该结果数据作为伪标签对第一动作定位结果数据进行监督以对分类器进行模型训练。本申请能够保留视频样本中更丰富的信息,能够生成更准确的伪标签来监督模型训练,进而能够有效提高训练得到的视频动作定位模型的性能以及采用视频动作定位模型进行视频动作定位的结果准确性及可靠性。
-
-
-