一种基于分布距离的小目标检测方法

    公开(公告)号:CN113378905B

    公开(公告)日:2022-06-03

    申请号:CN202110623154.6

    申请日:2021-06-04

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于分布距离的小目标检测方法。本发明构建小目标检测图像数据集;人工标注所述小目标检测数据集中每幅图像的目标标记框以及目标类别;构建基于分布距离的小目标检测网络,将小目标检测数据集作为输入数据,结合小目标检测训练集中的目标类型,构建基于分布距离的小目标检测网络损失函数,通过随机梯度下降算法训练得到优化后的基于分布距离的小目标检测网络,使用优化后的网络检测图片中的小目标。本发明在目标较小的时候,检测性能得到了提升。

    一种基于卷积神经网络的事件场合成孔径成像方法

    公开(公告)号:CN112819742B

    公开(公告)日:2022-05-13

    申请号:CN202110159784.2

    申请日:2021-02-05

    Applicant: 武汉大学

    Abstract: 本发明提出了一种基于卷积神经网络的事件场合成孔径成像方法。首先构建多个视角下场景事件数据集和场景无遮挡图像数据集;然后将多个视角场景事件数据集通过相机的多视角几何关系映射到合成孔径成像平面,得到多个视角重聚焦到参考视角的事件数据集;再将多个视角下重聚焦到参考视角的事件数据集输入至卷积神经网络得到重构后无遮挡视觉图像,结合场景无遮挡图像、重构后无遮挡视觉图像构建损失函数,通过ADAM迭代优化器训练卷积神经网络;最后将待重构场景影像通过训练后卷积神经网络得到待重构场景影像对应的无遮挡的目标图像。本发明综合利用了事件相机和卷积神经网络的优势,实现了密集遮挡与极端光照条件下的高质量视觉图像重建。

    一种基于迁移学习的跨模态遥感图像的匹配方法

    公开(公告)号:CN111898663B

    公开(公告)日:2022-05-13

    申请号:CN202010701646.8

    申请日:2020-07-20

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于迁移学习的跨模态遥感图像的匹配方法,该方法利用迁移学习,将在有标签的跨模态遥感图像数据上学习到的度量准则,迁移到无标签的其他成像设备的跨模态遥感图像上,提高其匹配性能。网络同时输入有标签的跨模态遥感图像数据和无标签的跨模态数据。网络包含两个特征提取器,其参数部分共享,分别用于提取光学图像的特征和SAR图像的特征。训练阶段包含如下两个任务,第一是利用有标签的数据学习光学图像和SAR图像两种模态之间的度量准则,第二则是要混淆不同成像设备的同种模态数据。本发明能够有效地将在有标签的数据上学习到的度量准则,迁移到无标签的数据上,对无标签的跨模态遥感图像进行更高精度的匹配。

    一种基于静态纹理模型聚集的动态纹理识别方法

    公开(公告)号:CN104200220A

    公开(公告)日:2014-12-10

    申请号:CN201410416248.6

    申请日:2014-08-21

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于静态纹理模型聚集的动态纹理识别方法,提出了识别动态纹理并不需要对整个复杂的运动过程建模,可以绕开对运动模式进行数学建模这一瓶颈,直接将动态纹理视为若干帧静态纹理图像的聚集,从而将其转化为静态纹理分类问题,最后通过聚集静态纹理模型识别动态纹理。而关于静态纹理识别目前有很多成熟有效的算法。本发明利用现有的静态纹理模型算法,将其拓展至动态纹理识别的应用,建立基于静态纹理模型聚集的动态纹理识别框架,推动了动态纹理识别技术发展,实现了高效快速识别动态纹理。

    一种基于卷积神经网络的事件场合成孔径成像方法

    公开(公告)号:CN112819742A

    公开(公告)日:2021-05-18

    申请号:CN202110159784.2

    申请日:2021-02-05

    Applicant: 武汉大学

    Abstract: 本发明提出了一种基于卷积神经网络的事件场合成孔径成像方法。首先构建多个视角下场景事件数据集和场景无遮挡图像数据集;然后将多个视角场景事件数据集通过相机的多视角几何关系映射到合成孔径成像平面,得到多个视角重聚焦到参考视角的事件数据集;再将多个视角下重聚焦到参考视角的事件数据集输入至卷积神经网络得到重构后无遮挡视觉图像,结合场景无遮挡图像、重构后无遮挡视觉图像构建损失函数,通过ADAM迭代优化器训练卷积神经网络;最后将待重构场景影像通过训练后卷积神经网络得到待重构场景影像对应的无遮挡的目标图像。本发明综合利用了事件相机和卷积神经网络的优势,实现了密集遮挡与极端光照条件下的高质量视觉图像重建。

    一种基于边缘结构信息的无人机图像与SAR卫星图像的匹配方法

    公开(公告)号:CN111899269A

    公开(公告)日:2020-11-06

    申请号:CN202010686373.4

    申请日:2020-07-16

    Applicant: 武汉大学

    Abstract: 本发明公开了一种基于边缘结构信息的无人机图像与SAR卫星图像的匹配方法,该方法首先利用传统的Ratio算子对SAR卫星图像的边缘进行初步的粗提取,再叠加到SAR原图上对SAR图像进行增强,利用卷积神经网络提取无人机光学/红外图像以及增强后的SAR卫星图像的边缘图像,然后再利用新的卷积神经网络提取边缘图像的深层语义特征,然后对边缘图的深度特征进行相似度匹配,获取无人机图像和SAR卫星图像的匹配热力图,最终根据热力图中值最高的区域,找到无人机图像在SAR卫星图像中的位置。本发明采用的基于图像边缘结构的匹配方法,能够利用图像的边缘特性,弥补不同成像机制带来的域差异,有效地对三种异源图像之间进行匹配。

    基于非监督特征学习的高分辨率遥感影像场景分类方法

    公开(公告)号:CN103942564B

    公开(公告)日:2017-02-15

    申请号:CN201410140377.7

    申请日:2014-04-08

    Applicant: 武汉大学

    Abstract: 一种基于非监督特征学习的高分辨率遥感影像场景分类方法,包括对输入的原始高分辨率遥感图像进行划分得到场景,从每个场景中随机地提取若干个训练图像块,将训练图像块聚集起来做预处理操作;计算所有训练图像块的低维流形表示,聚类得到一组聚类中心;对每一幅场景密集采样得到局部图像块,对每个局部图像块做预处理操作后映射到相同的低维流形空间中,然后进行编码获得场景的所有局部特征;将所有场景的局部特征集合起来进行特征量化,统计每一幅场景的局部特征直方图,得到场景的全局特征表达;随机挑选若干幅场景作为训练样本,由分类器得到每一幅场景的预测类别标号,完成原始高分辨率遥感场景的标注任务。

    遥感图像的主动谱聚类方法

    公开(公告)号:CN103886333B

    公开(公告)日:2017-02-15

    申请号:CN201410136015.0

    申请日:2014-04-04

    Applicant: 武汉大学

    Abstract: 本发明提供了一种遥感图像的主动谱聚类方法,首先,提取遥感图像特征并构建k-NN图,利用k-NN图进行遥感影像谱聚类;然后,主动选择出邻域标号最混乱的遥感图像,并对其与邻居间的边进行提问获得成对约束信息,采用成对约束信息对k-NN图进行提纯,并基于提纯后的k-NN图重新对遥感图像进行谱聚类。本发明方法降低了数据标记难度,对操作者专业知识无太高要求;显著提高了遥感图像聚类结果准确度和海量遥感图像的分析处理能力。

    基于快速二值编码的高分辨率遥感影像场景分类方法

    公开(公告)号:CN104036293A

    公开(公告)日:2014-09-10

    申请号:CN201410262170.7

    申请日:2014-06-13

    Applicant: 武汉大学

    Abstract: 本发明提供了一种基于快速二值编码的高分辨率遥感影像场景分类方法,包括步骤:步骤1,划分待分类遥感影像获得场景单元;步骤2,从场景单元中提取尺寸相同的图像块作为局部图像块训练样本;步骤3,采用非监督学习法学习局部图像块训练样本获得滤波器组;步骤4,将场景单元与滤波器组中各滤波器分别做卷积获得各场景单元的幅滤波器响应图,采用二值编码法分别融合各场景单元的幅滤波器响应图获得各场景单元的全局特征描述;步骤5,基于场景单元的全局特征描述进行场景单元分类。本发明在保证场景分类精度的前提下,大大降低了非监学习法的计算代价。

Patent Agency Ranking