-
公开(公告)号:CN117173525B
公开(公告)日:2024-07-09
申请号:CN202311138474.8
申请日:2023-09-05
Applicant: 北京交通大学
IPC: G06V10/80 , G06V10/774 , G06N3/0455 , G06N3/0464 , G06N3/0499 , G06N3/08
Abstract: 本发明涉及一种通用型多模态图像融合方法,包括基于预处理网络将同一场景下精配准的多模态图像进行预处理得到初始图像、基于编码器网络将所述初始图像进行特征提取得到多尺度特征和基于解码器网络将所述多尺度特征进行特征重建得到融合图像,所述编码器网络包括i+1个依次连接的Transformer模块,且所述前i个Transformer模块后均连接有小波下采样模块,其中,i∈{1,2,3,4};避免了对融合策略的依赖,更适合于不同的多模态图像融合任务,充分保留了源图像的低频结构,并加强了高频信息的感知,可以弥补单一模态信息表征不足的局限性,实现高质量多模态图像融合效果,增加图像融合方法的实用性和泛化性。
-
公开(公告)号:CN117746014A
公开(公告)日:2024-03-22
申请号:CN202311675687.4
申请日:2023-12-07
Applicant: 北京交通大学
IPC: G06V10/25 , G06V20/13 , G06V10/82 , G06N3/0464 , G06N3/08 , G06V10/764
Abstract: 本发明涉及一种融合电磁散射特征的SAR图像目标识别方法和系统,所述SAR图像目标识别方法包括如下步骤:将SAR测试图像基于深度卷积神经网络生成第一中间特征图,将所述SAR测试图像与所述第一中间特征图输入图像分类网络得到识别结果;其中,获得所述深度卷积神经网络的模型参数的方法包括如下步骤:将SAR训练图像基于属性散射中心模型生成属性散射中心图像,将所述SAR训练图像基于深度卷积神经网络生成重构的属性散射中心图像,基于所述属性散射中心图像和所述重构的属性散射中心图像得到所述深度卷积神经网络的模型参数。本发明创新性地采用蒸馏模型的思想来进行电磁散射特征的提取,并采用全局注意力的思想融合电磁散射特征进行SAR图像目标识别。
-
公开(公告)号:CN117173477A
公开(公告)日:2023-12-05
申请号:CN202311138371.1
申请日:2023-09-05
Applicant: 北京交通大学
IPC: G06V10/764 , G06V10/774 , G06V40/10 , G06N3/0464 , G06N3/084
Abstract: 一种基于多层级数据扰动策略的域泛化行人再识别模型训练方法,包括:将原始行人图像输入显式随机扰动模块,将目标行人和扰动后的行人背景重构成背景扰动后的行人图像,获得背景随机扰动后的行人图像;将原始行人图像与背景扰动后的行人图像组合成图像对,将所述图像对输入基线网络进行特征提取,不确定抽样标准化模块对提取后的特征进行隐式扰动,整合后获得输出特征对;将所述输出特征对,输入损失计算模块,将所述输出特征对拆分为原始行人特征与扰动行人特征计算协方差损失,最终计算总损失,将总损失在所述基线网络中反向传播,更新网络权重。本发明在不增加模型参数前提下,显著提升了模型泛化性。
-
公开(公告)号:CN104915961A
公开(公告)日:2015-09-16
申请号:CN201510309491.2
申请日:2015-06-08
Applicant: 北京交通大学
CPC classification number: G06T7/0012 , G06K9/6201 , G06K2009/6213 , G06K2209/05 , G06T7/0014 , G06T2207/30068 , G06T2207/30096
Abstract: 本发明公开了一种基于乳腺X线图像的肿块区域显示方法,该方法的步骤包括获取乳腺X线图像I1及其对侧图像;对所述乳腺X线图像I1中可疑图像区域进行初定位;基于乳腺X线图像I1的对侧图像,采用双边分析法计算可疑图像区域在对侧图像中的匹配代价,判断可疑图像区域在对侧图像中的匹配区域;基于图像区域的匹配情况,对可疑图像区域是否为疑似肿块区域进行初判断;将初判断的疑似肿块区域在参考库图像区域中进行区域检索,确定疑似肿块区域为正常组织图像区域或肿块图像区域。本发明进一步公开了一种基于乳腺X线图像的肿块区域显示系统。
-
公开(公告)号:CN117746014B
公开(公告)日:2025-03-04
申请号:CN202311675687.4
申请日:2023-12-07
Applicant: 北京交通大学
IPC: G06V10/25 , G06V20/13 , G06V10/82 , G06N3/0464 , G06N3/08 , G06V10/764
Abstract: 本发明涉及一种融合电磁散射特征的SAR图像目标识别方法和系统,所述SAR图像目标识别方法包括如下步骤:将SAR测试图像基于深度卷积神经网络生成第一中间特征图,将所述SAR测试图像与所述第一中间特征图输入图像分类网络得到识别结果;其中,获得所述深度卷积神经网络的模型参数的方法包括如下步骤:将SAR训练图像基于属性散射中心模型生成属性散射中心图像,将所述SAR训练图像基于深度卷积神经网络生成重构的属性散射中心图像,基于所述属性散射中心图像和所述重构的属性散射中心图像得到所述深度卷积神经网络的模型参数。本发明创新性地采用蒸馏模型的思想来进行电磁散射特征的提取,并采用全局注意力的思想融合电磁散射特征进行SAR图像目标识别。
-
公开(公告)号:CN119107244A
公开(公告)日:2024-12-10
申请号:CN202411175821.9
申请日:2024-08-26
Applicant: 北京交通大学
IPC: G06T5/70 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了基于DnCNN与YOLOv8的频高图去噪及识别方法,该方法包括:将电离层探测图像输入DnCNN模型获得去噪清晰图像;将所述去噪清晰图像输入YOLOv8模型获得识别对象并输出电离层参数。通过精确调整的DnCNN模型,有效地去除了电离层图像中的噪声,保留了关键的回波信息,为后续图像处理提供了高质量的输入;通过对YOLOv8模型的微调,减少了资源消耗,提高了模型训练的效率和对象识别的准确性;实现了电离层探测图像处理的自动化和智能化,提高了处理效率和实用性;适用于需要高精度电离层图像分析的科研和监测应用,具有重要的实用价值和科学意义。
-
公开(公告)号:CN111881714B
公开(公告)日:2023-11-21
申请号:CN202010438989.X
申请日:2020-05-22
Applicant: 北京交通大学
IPC: G06V40/10 , G06V10/762 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/088 , G06N3/084
-
公开(公告)号:CN116385265A
公开(公告)日:2023-07-04
申请号:CN202310360499.6
申请日:2023-04-06
Applicant: 北京交通大学
IPC: G06T3/40 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及一种图像超分辨率网络的训练方法,所述图像超分辨率网络包括浅层特征提取子网、深层特征提取子网、特征融合子网和图像重建子网,所述深层特征提取子网包括若干个混合注意力模块,所述特征融合子网包括若干个神经窗口全连接条件随机场模块,该训练方法包括将低分辨率图像输入所述图像超分辨率网络对其进行训练的训练步骤;创新性地将条件随机场的思想加入到图像超分辨率模型中,通过像素点与像素点间联系对特征进行约束,进行特征融合,通过混合注意力模块,其结合了移位窗口自注意力、空间注意力及通道注意力,利用它们的互补优势,克服了移位窗口机制因输入像素少,对网络性能提升产生的限制,保留了较强的局部特征表征能力。
-
公开(公告)号:CN111488797A
公开(公告)日:2020-08-04
申请号:CN202010165628.2
申请日:2020-03-11
Applicant: 北京交通大学
Abstract: 本发明涉及一种行人再识别方法,包括步骤1、调整原始行人图像尺寸,进行预处理;2、将预处理后的图像输入MEMF模型进行前向传播,输出四个特征向量;3、计算一次训练的总损失;4、根据总损失进行反向传播,更新并保存网络权重;5、将网络权重作为下一次模型训练的初始网络权重,重复步骤2-4,保存最后一次训练后的模型;6、调整检索图像和图像库中图像的大小并归一化;7、归一化后输入训练好的模型,每幅图像得到四个等维的特征表达向量;8、将每幅图像的四个特征表达向量级联作为最终特征表达向量;9、计算检索图像和图像库图像的最终特征表达向量间的欧氏距离,从小到大排序;10、根据排序,输出对应序列图像作为识别结果。
-
公开(公告)号:CN117689540B
公开(公告)日:2025-02-07
申请号:CN202311505187.6
申请日:2023-11-13
Applicant: 北京交通大学
IPC: G06T3/4053 , G06V10/44 , G06V10/82 , G06V10/776 , G06N3/0495 , G06N3/045 , G06N3/0464 , G06N3/084 , G06N3/082
Abstract: 一种基于动态重参数化的轻量图像超分辨率方法,包括:S1将预处理后的低分辨率原始图像输入基于CNN的轻量图像超分主干网络与图像重建模块得到超分辨率图像;S2根据超分辨率图像与对应高分辨率原始图像预处理后的真值图像计算损失函数,反向传播更新网络权重;S3根据迭代周期与初始化条件,将该迭代周期中贡献度评分最大的卷积层扩展为增强型面向边缘重参数化分支模块,该迭代周期中所有已经扩展为重参数化分支模块中贡献度评分最小的重参数化分支进行剪枝;重复以上S1‑S3步骤,直至所述主干网络收敛。在不改变主干网络轻量级的网络参数、保持推理速度快的情况下,提高重建性能。相比于其他重参数化方法,可以大幅减少训练时长和内存消耗。
-
-
-
-
-
-
-
-
-