一种基于稳定扩散模型的特征截断无限制攻击方法

    公开(公告)号:CN119741502A

    公开(公告)日:2025-04-01

    申请号:CN202411854202.2

    申请日:2024-12-17

    Applicant: 燕山大学

    Abstract: 本发明公开了一种基于稳定扩散模型的特征截断无限制攻击方法,属于计算机视觉技术领域,包括以下步骤:步骤S1:对原始样本进行预处理,包括对原始样本进行调整大小、通道变换、类型转换以及编码处理;步骤S2:获取全局深度特征及局部关键特征:将原始样本输入GDFE模块提取全局深度特征,同时将样本输入CLFE模块提取局部关键特征,以提高对抗样本的可迁移性;步骤S3:扩散模型前向推断及无条件编码优化;步骤S4:扩散模型去噪攻击;步骤S5:计算MLF损失并更新梯度方向;步骤S6:反复迭代,得到最终对抗样本:根据潜在特征反编码得到对抗样本。本发明能够提高对抗样本可迁移性和保持视觉不可感知性。

    基于信念攻击和显著区域扰动限制的对抗样本生成方法

    公开(公告)号:CN114399630B

    公开(公告)日:2024-10-29

    申请号:CN202111655287.8

    申请日:2021-12-31

    Applicant: 燕山大学

    Abstract: 本发明提供了一种基于信念攻击和显著区域扰动限制的对抗样本生成方法,涉及深度神经网络技术领域和计算机视觉领域,本发明包含以下步骤:提供原始图像和白盒目标模型,使用包含原始图像的数据集作为数据集,利用类激活映射技术生成关于原始图像的显著区域二进制掩码,利用基于信念的攻击方法融合迭代的快速梯度方法生成全局对抗扰动;将生成的全局对抗扰动和显著区域二进制掩码融合生成显著区域对抗扰动;将显著区域对抗扰动添加到输入图像,并迭代地进行更新直到达到预设的终止条件,输出最后的一次迭代的图像对抗样本作为生成的对抗样本。该发明生成的对抗样本具备低扰动、高迁移性。

    基于条件生成对抗和平均教师模型的草图语义分割方法

    公开(公告)号:CN117911905A

    公开(公告)日:2024-04-19

    申请号:CN202410142101.6

    申请日:2024-02-01

    Applicant: 燕山大学

    Abstract: 本发明公开了基于条件生成对抗和平均教师模型的草图语义分割方法,属于计算机视觉领域,包括数据集选取;基于笔画的连续性,设计伪笔画搜索算法,依据伪笔画信息,使用增强型局部特征聚集模块,提取手绘草图的局部特征;建立关系‑图卷积神经网络,设计语义分割模型;建立条件生成对抗模型,利用重复训练过程,使用无语义分割标注的手绘草图改善语义分割模型性能;基于平均教师模型,构建手绘草图的语义分类网络,通过使用无语义分类标注的手绘草图提升语义分类效果;将条件生成对抗模型输出的语义分割结果与平均教师模型输出的语义类型相结合,生成最终的语义分割图。本发明在不依赖笔画时序信息的情况下,具有较大的性能优势。

    一种基于类编解码结构的草图语义分割方法

    公开(公告)号:CN114998904A

    公开(公告)日:2022-09-02

    申请号:CN202210655278.7

    申请日:2022-06-10

    Applicant: 燕山大学

    Abstract: 本发明涉及一种基于类编解码结构的草图语义分割方法,属于计算机视觉技术领域。具体地,将草图视为二维点集合,通过利用笔画内部结构和采样点的空间位置关系开发了新颖的局部特征聚集模块,该模块编码了丰富的局部特征,并定义了笔画距离,用于兼顾草图的二维空间分布和笔画结构;设计了线段层次自注意力模块用于建立和增强草图线段之间的关系,线段层次自注意力模块更好地描述了草图的内部结构;基于全局注意力机制,提出了末尾具有两个子分支的类编解码结构,包括:点层次子分支和线段层次子分支;最终,两个子分支的输出融合在一起生成语义分割结果。本发明相对于已存在的方法,具有更精准的分割结果和较高的鲁棒性。

    一种融合多特征的多因素视频遮挡区域检测方法及系统

    公开(公告)号:CN110503061B

    公开(公告)日:2022-02-11

    申请号:CN201910800416.4

    申请日:2019-08-28

    Applicant: 燕山大学

    Abstract: 本发明公开了一种融合多特征的多因素视频遮挡区域检测方法及系统。所述方法通过构建多因素视频遮挡区域检测训练样本,以像素点为单位提取多因素视频遮挡区域检测相关特征;对所提取的多因素视频遮挡区域检测相关特征进行特征归一化处理,并通过Kmeans聚类获取训练样本像素点中的聚类质心,并计算各质心与类内所有训练样本像素点间的距离;基于特征加权思想,计算类内所有训练样本像素点与该类质心各特征间的距离,并根据各特征的距离与总距离的比值来计算特征权重;基于特征权重,设计改进的距离计算公式,进行加权Kmeans聚类,从而达到对多因素存在场景下视频遮挡区域进行有效检测的目的,提高了遮挡区域检测的实时性和准确性。

    一种对抗样本防御模型训练方法、系统及其应用

    公开(公告)号:CN113723564A

    公开(公告)日:2021-11-30

    申请号:CN202111072894.1

    申请日:2021-09-14

    Applicant: 燕山大学

    Abstract: 本发明涉及一种对抗样本防御模型训练方法、系统及其应用,首先获取训练集,训练集包括对抗样本和真实样本。然后构建初始防御模型,初始防御模型包括生成器、判别器和分类器。最后利用训练集对初始防御模型进行训练,得到防御模型,本发明通过构造相应逆扰动来重构对抗样本,得到近似于真实样本的重构样本,从而获得较好的对抗样本防御效果。在对对抗样本进行分类时,先利用上述防御模型对待分类对抗样本进行对抗扰动消除,得到重构样本,所得到的重构样本可近似真实样本,将该重构样本输入至分类模型,能够使得分类模型正确分类,避免对抗扰动导致分类模型错误分类的问题,显著提高分类模型对对抗样本的分类正确率。

    一种基于密度估计的人群计数方法及系统

    公开(公告)号:CN113538402A

    公开(公告)日:2021-10-22

    申请号:CN202110865293.X

    申请日:2021-07-29

    Applicant: 燕山大学

    Abstract: 本发明公开一种复杂场景下结合跨模态信息的人群计数方法及系统,涉及计算机视觉技术领域,包括:获取待计数复杂场景下人群的RGB图像和深度图像;将RGB图像和深度图像输入优化后的深度神经网络模型中,得到估计的人群密度图;其中,深度神经网络模型包括依次连接的低层特征提取层、第一跨模态循环注意力融合层、中层特征提取层、第二跨模态循环注意力融合层、高层特征提取层、第三跨模态循环注意力融合层和人群密度图估计层;将估计的人群密度图进行逐像素相加,得到人群中人数的估计值。本发明能够避免现有人群计数方法在人群任意分布的复杂场景中准确率下降的问题。

    一种雨后真实图像中雨滴去除方法及系统

    公开(公告)号:CN112529815A

    公开(公告)日:2021-03-19

    申请号:CN202011526580.X

    申请日:2020-12-22

    Applicant: 燕山大学

    Abstract: 本发明涉及一种雨后真实图像中雨滴去除方法及系统。所述雨滴去除方法包括:获取历史雨后真实图像;根据所述历史雨后真实图像构建融合长短时记忆模型、空间注意力机制以及残差块的递归注意残差网络;获取待去雨的雨后真实图像,并利用所述递归注意残差网络对所述待去雨的雨后真实图像进行处理,生成去雨后的雨后真实图像;基于图像增强理论,利用雨滴检测及滤波算法滤除所述去雨后的雨后真实图像中的残留雨滴,确定滤除后的雨后真实图像;基于计算机图形学理论,利用像素值转换算法对所述滤除后的雨后真实图像进行处理,确定像素点增强后的雨后真实图像。本发明能够提高去雨后图像的质量差以及合成图像的处理效果。

Patent Agency Ranking