-
公开(公告)号:CN118587619A
公开(公告)日:2024-09-03
申请号:CN202410735949.X
申请日:2024-06-07
Applicant: 西北工业大学
IPC: G06V20/17 , G06V10/82 , G06V10/25 , G06V40/10 , G06N3/0464 , G06N3/045 , G06N3/0495 , G06N3/082
Abstract: 本发明涉及一种基于轻量级蒸馏网络的航拍人员检测方法,先将采集到的包含人员目标的航拍数据输入到训练好的包含多个低精度量化模块的基于响应的教师辅助蒸馏检测网络;然后将教师辅助蒸馏检测网络输出的人员目标的第一检测结果输入到鲁棒性检测模块获得第二检测结果;接着分别计算第一检测结果和第二检测结果与上一帧标签的IoU,若第一检测结果与上一帧标签的IoU大于第二检测结果与上一帧标签的IoU,以第一检测结果为最终检测结果,否则以第二检测结果为最终检测结果。本发明采用轻量级的网络模型对人员目标进行检测,减少了网络模型的参数,降低了网络模型的浮点运算次数,具有较高的检测精度和效率。
-
公开(公告)号:CN117932101A
公开(公告)日:2024-04-26
申请号:CN202311207571.8
申请日:2023-09-19
Applicant: 西北工业大学
IPC: G06F16/583 , G06F16/55 , G06F16/35 , G06F40/30 , G06N3/048 , G06N3/0455 , G06N3/088
Abstract: 本发明基于多源多模态的遥感数据协同处理要求,具体分析当前方法忽略了单一模态特征分布特性的缺陷,公开了一种基于单模特征建模的跨模态遥感图文检索方法。具体地,针对遥感图像与文本数据的冗余信息,提出了基于掩码的注意力机制;针对图像区域与文本序列模态内在的语义联系,提出了基于Transformer的关系建模方法;针对目前主流损失函数三元损失仅仅关注跨模态特征间的距离及匹配关系的缺陷,基于遥感领域图像信息量大及其对应的文本描述多样的特性,提出了基于无监督的分类损失函数。本发明的跨模态遥感检索方法能够提高跨模态遥感图文检索的准确性、鲁棒性和实用性。
-
公开(公告)号:CN114612453B
公开(公告)日:2024-03-26
申请号:CN202210272988.1
申请日:2022-03-18
Applicant: 西北工业大学
IPC: G06T7/00 , G06V10/77 , G06V10/772 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于深度学习和稀疏表示模型的基建表面缺陷检测方法,由以下步骤组成:利用缺陷训练集和正常训练集对卷积神经网络模型进行训练;利用训练后的卷积神经网络模型进行特征提取,并输入到稀疏表示模型中,求解每一张图像关于正常特征字典Dnor和缺陷特征字典的重构误差rnor,将待测图像特征集ftest与正常特征字典Dnor输入到稀疏表示模型中计算得到稀疏系数αnor和重构误差tnor,当tnor>δnor时,将待测图像特征集ftest与缺陷特征字典Ddef输入到稀疏表示模型中计算得到稀疏系数αdef和重构误差tdef;当tnor>tdef>δdef时,得出待测图像为缺陷样本;本发明利用稀疏表示模型在小样本条件下实现物体表面缺陷高精度检测,能够克服现有的物体表面缺陷检测技术对训练样本依赖程度高的问题。
-
公开(公告)号:CN114612453A
公开(公告)日:2022-06-10
申请号:CN202210272988.1
申请日:2022-03-18
Applicant: 西北工业大学
IPC: G06T7/00 , G06V10/77 , G06V10/772 , G06V10/774 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于深度学习和稀疏表示模型的基建表面缺陷检测方法,由以下步骤组成:利用缺陷训练集和正常训练集对卷积神经网络模型进行训练;利用训练后的卷积神经网络模型进行特征提取,并输入到稀疏表示模型中,求解每一张图像关于正常特征字典Dnor和缺陷特征字典的重构误差rnor,将待测图像特征集ftest与正常特征字典Dnor输入到稀疏表示模型中计算得到稀疏系数αnor和重构误差tnor,当tnor>δnor时,将待测图像特征集ftest与缺陷特征字典Ddef输入到稀疏表示模型中计算得到稀疏系数αdef和重构误差tdef;当tnor>tdef>δdef时,得出待测图像为缺陷样本;本发明利用稀疏表示模型在小样本条件下实现物体表面缺陷高精度检测,能够克服现有的物体表面缺陷检测技术对训练样本依赖程度高的问题。
-
公开(公告)号:CN111222574B
公开(公告)日:2022-04-05
申请号:CN202010013691.4
申请日:2020-01-07
Applicant: 西北工业大学
IPC: G06V10/764 , G06V10/762 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提供了一种基于多模型决策级融合的舰船与民船目标检测与分类方法,在充分分析Faster‑RCNN和YOLOv3模型对不同场景中目标检测的差异性后,通过构造符合舰船识别具体适用场景的决策树,对各模型输出结果进行决策级融合,从而实现多模型对近景和遥感图像内目标检测与识别的优势互补,提高了舰船目标的定位及分类准确度。整个过程脱离人工干预,减少人力成本,使得针对舰船目标的实时检测与识别成为可能。
-
公开(公告)号:CN118628937A
公开(公告)日:2024-09-10
申请号:CN202410735948.5
申请日:2024-06-07
Applicant: 西北工业大学
IPC: G06V20/17 , G06V10/44 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/045 , G06V10/25 , G06V10/26 , G06V10/20 , G06V40/10 , G06V10/32
Abstract: 本发明涉及一种基于编‑解码结构双源图像融合的航拍人员检测方法,先采集包含人员目标的航拍双源图像,然后将航拍双源图像进行对齐后输入到训练好的编‑解码结构双源图像融合检测模型中,获得检测结果。该编‑解码结构双源图像融合检测模型包括Transformer‑Yolov5合并基础层、Yolov5颈部层和Yolov5预测头。Transformer‑Yolov5合并基础层包括可见光特征提取子层、红外特征提取子层以及位于可见光特征提取子层和红外特征提取子层中间的特征融合子层。特征融合子层为采用多头注意力机制的基于编‑解码的网络结构。该方法能够有效提升图像特征融合后的检测精度。
-
公开(公告)号:CN116310321A
公开(公告)日:2023-06-23
申请号:CN202310142599.1
申请日:2023-02-21
Applicant: 西北工业大学
Abstract: 本发明公开了一种高分辨航空图像中目标检测方法,构建第一训练图片集,第一训练图片集中的初始训练图片均包含人员类目标;采用目标检测器对初始训练图片进行目标识别;选择初始训练图片中目标训练器未识别的目标框,并根据目标框生成目标实例库;将目标实例库中的伪样本植入初始训练图片,生成第二训练图片集;基于第二训练图片集对目标检测器进行训练;采用训练完成的目标检测器进行高分辨航空图像的目标检测;本发明通过向目标检测器未识别的初始训练图片中植入伪样本,在通过具有伪样本的最终训练图像对目标检测器进行训练,可以大大提高目标检测器的检测精度,降低误检率和漏检率,同时还可以减少训练过程中最终训练图片的需求量。
-
公开(公告)号:CN116012716A
公开(公告)日:2023-04-25
申请号:CN202310074232.0
申请日:2023-01-18
Applicant: 西北工业大学
IPC: G06V20/10 , G06V10/764 , G06V10/25 , G06V10/80
Abstract: 本发明公开了一种基于元学习的小样本遥感目标检测方法,包括:根据遥感图像构建支持集和查询集;获取支持集中每类遥感图像的类特征向量;获取查询集中每个遥感图像的感兴趣区域特征向量;计算类特征向量和感兴趣区域特征向量之间的距离,获得每类遥感图像的差异特征;对感兴趣区域特征向量进行通道级软注意力处理,得到每类遥感图像的类注意特征;通过全链接层对每类遥感图像的差异特征和每类遥感图像的类注意特征进行融合,得到融合特征;通过元检测器对融合特征进行遥感目标检测,解决如何减小对遥感图像误检、漏检导致目标检测效率低的问题。
-
公开(公告)号:CN111222574A
公开(公告)日:2020-06-02
申请号:CN202010013691.4
申请日:2020-01-07
Applicant: 西北工业大学
Abstract: 本发明提供了一种基于多模型决策级融合的舰船与民船目标检测与分类方法,在充分分析Faster-RCNN和YOLOv3模型对不同场景中目标检测的差异性后,通过构造符合舰船识别具体适用场景的决策树,对各模型输出结果进行决策级融合,从而实现多模型对近景和遥感图像内目标检测与识别的优势互补,提高了舰船目标的定位及分类准确度。整个过程脱离人工干预,减少人力成本,使得针对舰船目标的实时检测与识别成为可能。
-
公开(公告)号:CN110580460A
公开(公告)日:2019-12-17
申请号:CN201910803996.2
申请日:2019-08-28
Applicant: 西北工业大学
Abstract: 本发明提供了一种基于行人身份和属性特征联合识别验证的行人再识别方法,充分利用行人身份和属性特征的互补信息,联合识别和验证两种模式同时对深度卷积神经网络进行多任务学习,得到更具判别性的行人特征。本发明对行人身份特征和行人属性特征的同时学习,可以使神经网络的特征层既能学习到行人高层的整体身份特征,又能抓取到中层的语义特征,使这两种特征在同一个神经网络中得到有效融合,从而具有更强的鲁棒性和判别性。另外,本发明联合行人识别与行人验证两种模式监督式训练深度卷积神经网络,既能使学习得到的行人特征将不同类行人图片辨别出不同的类别,又能使同一个行人的特征距离很近,而不同行人的特征距离较远。
-
-
-
-
-
-
-
-
-