一种基于重要特征的视觉目标跟踪可转移黑盒攻击方法

    公开(公告)号:CN114511593B

    公开(公告)日:2025-04-18

    申请号:CN202210084771.8

    申请日:2022-01-25

    Abstract: 本发明提供了一种基于重要特征的视觉目标跟踪可转移黑盒攻击方法,通过对特征中与跟踪目标高度相关而不受源模型影响的重要特征进行攻击,将其重要程度降低,同时增强不重要的特征以实现具有可转移性的攻击;即通过反向传播获得的所对应的梯度来体现其特征的重要程度,随后通过梯度得到的加权特征以进行攻击。此外,本发明使用视频相邻两帧之间相似这一时序信息,提出特征相似下降损失函数,通过减小相邻帧之间的特征相似度以进行攻击。本发明能够在不可知目标跟踪模型以及不进行大量查询的情况下,通过生成的具有强可转移性的对抗样本,对目标跟踪器实现有效的黑盒攻击。

    一种视觉复杂度引导的扩散模型对抗防御方法

    公开(公告)号:CN119516428A

    公开(公告)日:2025-02-25

    申请号:CN202411491053.8

    申请日:2024-10-24

    Abstract: 本发明提出了一种视觉复杂度引导的扩散模型对抗防御方法,该方法包括如下步骤:步骤1)将被攻击的视频对抗样本作为输入,逐帧计算对抗视频样本的视觉复杂度;步骤2)根据样本视觉复杂度与扩散净化尺度的映射关系,选择合适的扩散净化尺度;步骤3)对对抗视频样本进行前向扩散,依据步骤2)选定的净化尺度,使用强度合适的高斯噪声在淹没对抗扰动的同时,尽可能保留视频帧的主成分,得到扩散视频样本;步骤4)对扩散视频样本进行反向扩散,并采用一次性去噪策略,高效地将扩散样本恢复为净化样本;步骤5)将净化后的良性视频输入智能视频系统以得到正确的决策,完成对对抗攻击的防御。

    一种基于结构先验与多尺度特征融合的细粒度目标检测方法

    公开(公告)号:CN116310834A

    公开(公告)日:2023-06-23

    申请号:CN202310320214.6

    申请日:2023-03-29

    Abstract: 本发明提出一种基于结构先验与多尺度特征融合的细粒度目标检测方法,该方法包括:步骤1,获取细粒度遥感图像数据集;步骤2,搭建改进Oriented R‑CNN的网络模型,由主干网络ResNet50与特征金字塔网络FPN得到图片的多尺度特征,并利用Canny边缘检测算法对输入图片进行边缘检测得到边缘检测结果,将边缘检测结果与多尺度特征进行融合得到融合特征,作为Oriented RPN的输入,根据Oriented RPN输出的定位结果,使用特征提取算法从融合特征中提取特征,将特征提取的结果输入到头部分类网络与头部定位网络中;步骤3,利用遥感数据集对步骤2中搭建的目标检测模型进行训练;步骤4,使用训练好的遥感图像目标检测模型对遥感图像进行检测以获得遥感图像中目标的定位和分类。

    一种针对密集区域的两阶段遥感图像目标检测方法

    公开(公告)号:CN111259758B

    公开(公告)日:2023-04-07

    申请号:CN202010030047.8

    申请日:2020-01-13

    Abstract: 本发明公开了一种针对密集区域的两阶段遥感图像目标检测方法,主要解决现有技术对目标密集区域目标识别准确率低的问题,其步骤为:1、对于输入图像进行数据增强操作,增加训练样本集;2、构建基于多尺度特征提取模块;3、在不同尺度的特征图上进行目标检测,找出目标密集的区域;4、针对目标密集的区域进行二次目标检测;5、对检测出的目标进行分类和位置回归,输出目标对应的分类标签和位置坐标,完成对图像的目标识别和定位。本发明利用网络多尺度结构的特点提取和融合不同尺度下的特征图来检测不同大小的目标,并对目标密集度高的区域进行二次检测,提高了小目标识别准确率。该方法可用于无人机以及卫星对目标的检测,侦查和监视。

    一种面向自监督视频目标分割的黑盒攻击方法

    公开(公告)号:CN115393776A

    公开(公告)日:2022-11-25

    申请号:CN202211148006.4

    申请日:2022-09-20

    Abstract: 本发明公开了一种面向自监督视频目标分割的黑盒攻击方法,基于亲和矩阵的自监督视频目标分割模型学习视频序列的特征表示从而实现强大的像素对应关系。首先基于初始化随机产生的对抗扰动,构建针对单帧、双帧和多帧的对比损失,进行迭代优化;然后设计特征损失增强黑盒攻击所生成对抗样本的可转移性;采用像素级损失使生成的对抗样本噪声不可感知;构建多路径聚合模块获得迭代优化的对抗性扰动并将其添加到原始视频帧产生对抗样本;最终将对抗视频输入自监督视频目标分割网络得到最终预测掩码。本发明对自监督视频目标分割模型的黑盒攻击方法的研究识别了分割算法的脆弱性,能够进一步提升自监督视频目标分割任务的安全性和鲁棒性。

    一种基于注意力多模态特征融合的无监督RGB-T目标跟踪方法

    公开(公告)号:CN114494354A

    公开(公告)日:2022-05-13

    申请号:CN202210138232.8

    申请日:2022-02-15

    Abstract: 本发明公开了一种基于注意力多模态特征融合的无监督RGB‑T目标跟踪方法,先采用分层卷积神经网络来提取RGB图像和热红外图像的特征;再使用特征融合模块将来自不同水平及不同模态的特征进行同步融合;再对融合得到的特征进行两次前向跟踪得到响应图;接着,将融合特征逆序,原先的模板图作为搜索图,搜索图作为模板图,生成的响应图作为伪标签进行反向跟踪得到最终的响应图;然后,最小化反向跟踪得到的响应图与原始标签之间的一致性损失进行无监督训练;最后,将测试视频帧输入训练好的网络进行前向跟踪得到响应图即为预测的目标位置。本发明方法可以充分利用多层次、多模态信息并能发挥无监督学习的优势。

Patent Agency Ranking