-
公开(公告)号:CN114511593B
公开(公告)日:2025-04-18
申请号:CN202210084771.8
申请日:2022-01-25
Applicant: 中国矿业大学
IPC: G06T7/246 , G06V10/74 , G06V10/82 , G06N3/0464
Abstract: 本发明提供了一种基于重要特征的视觉目标跟踪可转移黑盒攻击方法,通过对特征中与跟踪目标高度相关而不受源模型影响的重要特征进行攻击,将其重要程度降低,同时增强不重要的特征以实现具有可转移性的攻击;即通过反向传播获得的所对应的梯度来体现其特征的重要程度,随后通过梯度得到的加权特征以进行攻击。此外,本发明使用视频相邻两帧之间相似这一时序信息,提出特征相似下降损失函数,通过减小相邻帧之间的特征相似度以进行攻击。本发明能够在不可知目标跟踪模型以及不进行大量查询的情况下,通过生成的具有强可转移性的对抗样本,对目标跟踪器实现有效的黑盒攻击。
-
公开(公告)号:CN119516428A
公开(公告)日:2025-02-25
申请号:CN202411491053.8
申请日:2024-10-24
Applicant: 中国矿业大学
Abstract: 本发明提出了一种视觉复杂度引导的扩散模型对抗防御方法,该方法包括如下步骤:步骤1)将被攻击的视频对抗样本作为输入,逐帧计算对抗视频样本的视觉复杂度;步骤2)根据样本视觉复杂度与扩散净化尺度的映射关系,选择合适的扩散净化尺度;步骤3)对对抗视频样本进行前向扩散,依据步骤2)选定的净化尺度,使用强度合适的高斯噪声在淹没对抗扰动的同时,尽可能保留视频帧的主成分,得到扩散视频样本;步骤4)对扩散视频样本进行反向扩散,并采用一次性去噪策略,高效地将扩散样本恢复为净化样本;步骤5)将净化后的良性视频输入智能视频系统以得到正确的决策,完成对对抗攻击的防御。
-
公开(公告)号:CN111860678B
公开(公告)日:2024-02-27
申请号:CN202010744097.2
申请日:2020-07-29
Applicant: 中国矿业大学
IPC: G06V40/10 , G06V10/762 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/045 , G06N3/0895 , G06V10/764
Abstract: 本发明公开了一种基于聚类的无监督跨域行人重识别方法,属于计算机视觉领域。具体实现(1)搭建用于预训练的神经网络;(2)将源域有标签的数据输入预训练网络,做有监督的预训练;(3)搭建用于微调的双流相互学习网络框架;4)训练双流相互学习框架,输出适用于目标域的行人重识别模型。本发明利用有标签的源域数据集和无标签的目标域数据集,以及相互学习的网络框架,实现无监督的跨域行人重识别;引入自注意力机制和全局联合池化操作,以及提出新的损失函数——联合灵活优化损失,并选用更合
-
公开(公告)号:CN116580275A
公开(公告)日:2023-08-11
申请号:CN202310545491.7
申请日:2023-05-15
Applicant: 中国矿业大学
IPC: G06V10/80 , G06V10/82 , G06V10/26 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/09
Abstract: 本发明公开了一种本发明公开了一种基于多模态层次关系建模的RGB‑T目标跟踪方法,通过堆叠多层的Transformer编码器结构,利用自注意力机制在图像特征学习的多个阶段渐进式地聚集并融合多模态图像特征。在整个网络的多模态交互过程中,利用基于图像块的动态部件特征融合模块,动态求解跟踪场景中每个区域的可见光信息的重要程度,从而调节可见光信息和红外信息在跟踪过程中的相互作用,更好地适应复杂性场景,获得更好的跟踪性能。
-
公开(公告)号:CN116310834A
公开(公告)日:2023-06-23
申请号:CN202310320214.6
申请日:2023-03-29
Applicant: 中国矿业大学
Inventor: 赵佳琦 , 欧庆峰 , 周勇 , 阿卜杜穆塔利布·埃尔·萨迪克
Abstract: 本发明提出一种基于结构先验与多尺度特征融合的细粒度目标检测方法,该方法包括:步骤1,获取细粒度遥感图像数据集;步骤2,搭建改进Oriented R‑CNN的网络模型,由主干网络ResNet50与特征金字塔网络FPN得到图片的多尺度特征,并利用Canny边缘检测算法对输入图片进行边缘检测得到边缘检测结果,将边缘检测结果与多尺度特征进行融合得到融合特征,作为Oriented RPN的输入,根据Oriented RPN输出的定位结果,使用特征提取算法从融合特征中提取特征,将特征提取的结果输入到头部分类网络与头部定位网络中;步骤3,利用遥感数据集对步骤2中搭建的目标检测模型进行训练;步骤4,使用训练好的遥感图像目标检测模型对遥感图像进行检测以获得遥感图像中目标的定位和分类。
-
公开(公告)号:CN115984766A
公开(公告)日:2023-04-18
申请号:CN202211571246.5
申请日:2022-12-08
Applicant: 中国矿业大学
Inventor: 赵佳琦 , 王斌 , 周勇 , 芦志广 , 阿卜杜穆塔利布·埃尔·萨迪克
IPC: G06V20/52 , G06V20/64 , G06V20/70 , G06V10/82 , G06T7/80 , G06T7/70 , G06F17/16 , G06N3/02 , G06N3/08
Abstract: 本发明公开了一种煤矿井下快速单目视觉三维目标检测方法,包括以下步骤:S1、首先利用井下安装的摄像头采集包含指定目标的图像数据并进行二维框标注,构建目标检测数据集;S2、构建二维目标检测网络模型并在构建的目标检测数据集上训练,得到训练好的二维目标检测模型;S3、定义世界坐标系,利用棋盘格标定法标定相机内参,并利用激光雷达辅助完成相机与世界坐标系外参的标定;S4、图像输入二维目标检测模型得到目标二维边框,结合相机内外参计算目标三维坐标;S5、利用目标的三维坐标、目标沿巷道方向的航向角和目标长宽高计算相机坐标系下目标的三维包围框。
-
公开(公告)号:CN109670528B
公开(公告)日:2023-04-18
申请号:CN201811352790.4
申请日:2018-11-14
Applicant: 中国矿业大学
IPC: G06V10/774 , G06V10/82 , G06V10/764 , G06V40/10 , G06N3/0464 , G06N3/096
Abstract: 本发明公开了一种面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法,在训练阶段,首先通过采用基于成对样本随机遮挡策略的数据扩充方法增加样本的多样性,提高深度行人重模型训练过程中的鲁棒性,进而提高模型的泛化性能。本发明与现有技术中数据扩充的方法相比,利用了孪生深度学习模型训练数据的特点,同时考虑了孪生网络训练的困难,提出了一种新的数据扩充方法。通过增加训练数据对的多样性,有效缓解单个行人数据集类别少且缺乏多样性问题给带来的影响,提升了模型的泛化性能,让行人重识别方法可以更好的处理复杂环境下的相行人重识别问题。
-
公开(公告)号:CN111259758B
公开(公告)日:2023-04-07
申请号:CN202010030047.8
申请日:2020-01-13
Applicant: 中国矿业大学
IPC: G06V20/13 , G06V20/17 , G06V10/46 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种针对密集区域的两阶段遥感图像目标检测方法,主要解决现有技术对目标密集区域目标识别准确率低的问题,其步骤为:1、对于输入图像进行数据增强操作,增加训练样本集;2、构建基于多尺度特征提取模块;3、在不同尺度的特征图上进行目标检测,找出目标密集的区域;4、针对目标密集的区域进行二次目标检测;5、对检测出的目标进行分类和位置回归,输出目标对应的分类标签和位置坐标,完成对图像的目标识别和定位。本发明利用网络多尺度结构的特点提取和融合不同尺度下的特征图来检测不同大小的目标,并对目标密集度高的区域进行二次检测,提高了小目标识别准确率。该方法可用于无人机以及卫星对目标的检测,侦查和监视。
-
公开(公告)号:CN115393776A
公开(公告)日:2022-11-25
申请号:CN202211148006.4
申请日:2022-09-20
Applicant: 中国矿业大学
Abstract: 本发明公开了一种面向自监督视频目标分割的黑盒攻击方法,基于亲和矩阵的自监督视频目标分割模型学习视频序列的特征表示从而实现强大的像素对应关系。首先基于初始化随机产生的对抗扰动,构建针对单帧、双帧和多帧的对比损失,进行迭代优化;然后设计特征损失增强黑盒攻击所生成对抗样本的可转移性;采用像素级损失使生成的对抗样本噪声不可感知;构建多路径聚合模块获得迭代优化的对抗性扰动并将其添加到原始视频帧产生对抗样本;最终将对抗视频输入自监督视频目标分割网络得到最终预测掩码。本发明对自监督视频目标分割模型的黑盒攻击方法的研究识别了分割算法的脆弱性,能够进一步提升自监督视频目标分割任务的安全性和鲁棒性。
-
公开(公告)号:CN114494354A
公开(公告)日:2022-05-13
申请号:CN202210138232.8
申请日:2022-02-15
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于注意力多模态特征融合的无监督RGB‑T目标跟踪方法,先采用分层卷积神经网络来提取RGB图像和热红外图像的特征;再使用特征融合模块将来自不同水平及不同模态的特征进行同步融合;再对融合得到的特征进行两次前向跟踪得到响应图;接着,将融合特征逆序,原先的模板图作为搜索图,搜索图作为模板图,生成的响应图作为伪标签进行反向跟踪得到最终的响应图;然后,最小化反向跟踪得到的响应图与原始标签之间的一致性损失进行无监督训练;最后,将测试视频帧输入训练好的网络进行前向跟踪得到响应图即为预测的目标位置。本发明方法可以充分利用多层次、多模态信息并能发挥无监督学习的优势。
-
-
-
-
-
-
-
-
-