-
公开(公告)号:CN115331063A
公开(公告)日:2022-11-11
申请号:CN202211069817.5
申请日:2022-09-02
Applicant: 安徽大学
IPC: G06V10/764 , G06V10/82 , G06V10/762 , G06V10/26 , G06V10/44 , G06V10/46 , G06V10/58 , G06N3/04 , G06N3/08
Abstract: 本申请提供一种基于动态超图卷积网络的高光谱图像分类方法及系统,属于深度学习及图像处理技术领域。本申请通过获取高光谱图像,对高光谱图像进行降维和超像素分割,通过两次超图构造,实现了特征的动态提取。由于是将整个高光谱图像作为输入,使用超像素分割技术将原始像素划分成超像素点,从而大幅度减少了计算量。并且本申请通过超像素点的特征标签可以确定一些未知原始像素点的特征标签,相当于隐式增加了样本数量,这使本申请的模型在少量训练样本的情况下就可以达到较高的分类精度。
-
公开(公告)号:CN112801182B
公开(公告)日:2022-11-04
申请号:CN202110111705.0
申请日:2021-01-27
Applicant: 安徽大学
IPC: G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/04 , G06N3/08 , G06T7/246
Abstract: 本发明公开一种基于困难样本感知的RGBT目标跟踪方法,包括对行可见光图片和热红外图片进行配准标注分成训练集和测试集,然后对构建对应模型对预处理后的图片进行训练和测试;模型中包括实时跟踪网络RT‑MDNet、VGG‑M特征提取模块、前景增强模块、特征嵌入模块和二分类模块,本发明在低光照光照变化强烈等极端条件下跟踪上目标,通过前景增强模块来增强前景信息抑制背景信息,并通过困难样本感知损失函数,挖掘更多困难样本,辅助分类器目标背景的分类。
-
公开(公告)号:CN113128441B
公开(公告)日:2022-10-14
申请号:CN202110465670.0
申请日:2021-04-28
Applicant: 安徽大学
Abstract: 一种属性和状态引导的结构嵌入车辆重识别系统和方法,属于计算机视觉技术领域,解决车辆重识别中的相同车辆间的类内差异和不同车辆间类间差异的问题,系统通过基于属性的增强和基于状态的弱化来学习车辆重识别中具有判别力的特征,包括:残差网络模块、基于属性的增强和扩展模块、基于状态的削弱和收缩模块以及全局结构嵌入模块;方法,含两个阶段:训练阶段和测试阶段;利用属性的增强和扩展来增加不同车辆间的特征间距,利用状态的弱化和收缩来减小相同车辆间的特征间距,从而更好的帮助网络学习车辆的特征。
-
公开(公告)号:CN110363770B
公开(公告)日:2022-10-11
申请号:CN201910631325.2
申请日:2019-07-12
Applicant: 安徽大学
Abstract: 本发明公开了一种边缘引导式红外语义分割模型的训练方法及装置,方法包括:1)、预先建立包括依次数据连接的边缘嵌入模块层、残差网络模块层、空洞卷积模块以及第一卷积层的初始语义分割模型;2)、使用预先标记了目标的样本集训练初始语义分割模型;3)、利用交叉熵损失函数计算训练后语义分割模型输出的预测结果与对应样本的真值之间的损失值;4)、在训练次数大于或等于设定值的情况下,将训练后语义分割模型作为目标语义分割模型;5)、训练次数小于设定值的情况下,根据上述所得损失值更新训练后的语义分割模型的模型参数,返回执行步骤2),直至训练次数大于或等于设定值。应用本发明实施例,可以提高语义分割的准确性。
-
公开(公告)号:CN110349185B
公开(公告)日:2022-10-11
申请号:CN201910630002.1
申请日:2019-07-12
Applicant: 安徽大学
IPC: G06T7/246
Abstract: 本发明公开了一种RGBT目标跟踪模型的训练方法及装置,方法包括:1)、构建依次由稠密特征聚合模块以及分类模块组成的跟踪模型,稠密特征聚合模块包括提取可见光图像特征的第一卷积层序列;以及提取热红外图像特征的第二卷积层序列,第一卷积层中的与第二卷积层中深度相同的卷积层为配对卷积层;除第一个配对卷积层以外的配对卷积层均对应一个特征聚合层,第一个配对卷积层的卷积结果输入到下一个配对卷积层的特征聚合层中;分类模块包括依次串联的若干层全连接层;2)、使用预先标记的可见光图像样本以及预先标记的热红外图像样本训练跟踪模型,得到目标跟踪模型。本发明实施例可以使目标识别结果更加准确。
-
公开(公告)号:CN112949451B
公开(公告)日:2022-09-09
申请号:CN202110214908.2
申请日:2021-02-24
Applicant: 安徽大学
Abstract: 本发明提供一种通过模态感知特征学习的跨模态目标跟踪方法及系统;在VGG网络原有基础上增加了一个模态感知模块,以自适应地合并来自两个分支的有效特性;开发了一个两阶段的学习算法,以训练该网络的效率和有效性。在培训阶段,任意模态的训练样本的分类损失将被反向传播到两个模态分支。模态信息在训练阶段是可用的,在测试阶段是不可用的;使用一个两阶段的学习算法来有效地训练所提出的网络,重新训练最后的全连接层,模态感知融合模块来自适应的合并来自两个分支的有效特性,将任意模态作为输入以解决RGB和近红外模态之间的外观差距。
-
公开(公告)号:CN114444597A
公开(公告)日:2022-05-06
申请号:CN202210096431.7
申请日:2022-01-26
Applicant: 安徽大学
Abstract: 本发明公开一种基于渐进式融合网络的视觉跟踪方法及装置,方法包括基于一对配准的多模态视频,获取候选样本;将候选样本送入主干网络,生成候选样本的特征图,主干网络包括三个卷积层,每个卷积层加入基于属性的渐进式融合模块,基于属性的渐进式融合模块包括依次连接的属性融合模块、属性聚合模块和增强融合模块;将特征图按照通道维度进行拼接后送入全连接模块,得到目标位置。本发明通过将单个融合步骤给分离为一种三阶段的渐进式的融合方式,使用小规模的训练数据就能有效地训练,解决了对大规模数据的依赖的问题。
-
公开(公告)号:CN108846404B
公开(公告)日:2021-10-01
申请号:CN201810658629.3
申请日:2018-06-25
Applicant: 安徽大学
IPC: G06K9/46
Abstract: 本发明公开了一种基于相关约束图排序的图像显著性检测方法及装置,方法包括:对待检测图像进行超像素分割,建立一个闭环图模型,进而计算每一个超像素节点的先验信息;提取输入图像的颜色、纹理、位置等信息;获取每一个超像素节点的前景概率值;将前景概率值大于第一预设阈值的节点的集合作为前景种子点集合ind_fore;将前景概率值小于第二预设阈值的节点的集合作为背景种子点集合ind_back;第一预设阈值大于第二预设阈值;使用相关约束图排序的模型计算得到每个超像素节点的前景概率S_f,并使用前景概率值S_f作为最终的显著估计值S_final。应用本发明实施例,可以使显著性检测结果更加准确。
-
公开(公告)号:CN113408568A
公开(公告)日:2021-09-17
申请号:CN202110412938.4
申请日:2021-04-16
Applicant: 科大讯飞股份有限公司 , 安徽大学
Abstract: 本申请公开了对象关键点的检测模型训练的相关方法、装置、设备,其中,对象关键点的检测模型训练方法包括:获取到样本图片,将样本图片输入到检测模型中,得到样本图片的初始特征图;其中,样本图片中包括样本对象;基于初始特征图生成样本图片对应的第一热图;基于标准检测结果与第一热图生成第二热图;基于标准检测结果以及第一热图和/或第二热图对检测模型进行训练,得到训练后的检测模型。上述方案,能够提高对象关键点的检测精度。
-
公开(公告)号:CN108898136B
公开(公告)日:2021-09-17
申请号:CN201810725464.7
申请日:2018-07-04
Applicant: 安徽大学
Abstract: 本发明公开了一种跨模态图像显著性检测方法,输入配对的多模态图像,用基于超像素分割算法对不同模态进行分割,获取均匀、大小近似的超像素区域;设计基于图流形排序算法的多模态图像显著性检测模型,引入跨模态软一致性约束和流形排序拟合项稀疏性约束;以图像四边的超像素作为种子节点,计算其他节点与种子节点的相似性,得到初步的显著图;参考上一阶段得到的前景点作为种子节点,计算其他节点到该节点的相似性,得到最终的显著图。本发明提出了一种基于图流形排序算法互补地融合多模态图像的方法,并引入l1范数实现跨模态软一致性约束和流形排序函数拟合项稀疏性约束,即在协同多个模态的基础上,允许部分不一致,增加拟合项的鲁棒性。
-
-
-
-
-
-
-
-
-