-
公开(公告)号:CN115015929B
公开(公告)日:2024-08-09
申请号:CN202210600115.9
申请日:2022-05-27
Applicant: 电子科技大学
IPC: G01S13/90
Abstract: 本发明提供一种基于稀疏模型驱动的高效高精度InSAR相位滤波网络(SMD‑Net),它是通过首先建立了干涉相位滤波的稀疏重构模型;然后通过将求解干涉相位滤波模型的展开迭代收缩阈值算法(ISTA)展开到一个块中,SMD‑Net被设计为一个基于迭代的卷积神经网络(CNN)架构。在每个块中,通过建立一个具有局部块和全局上下文(GC)块的CNN模块来自适应学习稀疏变换域。SMD‑Net建模了干涉相位滤波过程。而不是像大多数网络那样完全依赖于数据拟合,其网络结构简单。与传统的干涉相位滤波方法相比较,本发明得到更高的干涉相位的精度和计算效率明显。
-
公开(公告)号:CN114022779B
公开(公告)日:2023-05-26
申请号:CN202111238184.1
申请日:2021-10-25
Applicant: 电子科技大学
IPC: G06V20/13 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于比例尺网络的SAR船只检测方法,该方法主要包括准备数据集、构建比例尺网络、建立船只检测模型、测试船只检测模型和评估船只检测模型五个部分。该方法基于原始的ResNet‑101,引入了群卷积模块,构建了比例尺网络,从而优化网络结构以提高准确性。采用群卷积模块构建SAR船只检测模型,该模型可以提供单层网络中更丰富的多尺度信息,使得本发明中的船只检测模型具有更优越的多尺度船舶检测性能。在公知的SAR船只数据集即SSDD数据集上的仿真结果表明,与现有技术ResNet‑101方法相比,本发明可将SAR船只检测精度提高约5%。
-
公开(公告)号:CN113902975B
公开(公告)日:2023-05-05
申请号:CN202111170725.1
申请日:2021-10-08
Applicant: 电子科技大学
IPC: G06V20/10 , G06V10/25 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/088
Abstract: 本发明公开了一种用于SAR舰船检测的场景感知数据增强方法,本发明首先基于经典卷积神经网络VGG‑11进行改进,使得更适用于SAR图像,然后用该网络对训练集中的图像进行分类:分为靠岸训练样本和离岸训练样本;再利用场景扩增,得到数量平衡的靠岸训练样本和离岸训练样本;经典检测网络使用处理过后的数据集进行训练,执行检测任务并评估检测结果;采用本发明方法的Faster R‑CNN船只检测网络的总体检测精度比现有技术的FasterR‑CNN船只检测网络的总体检测精度提高了1.95%,对靠岸船只的检测精度提高了6.61%,实现了SAR图像靠岸船只的检测精度的提高。
-
公开(公告)号:CN115272842A
公开(公告)日:2022-11-01
申请号:CN202210472909.1
申请日:2022-04-29
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于全局语义边界注意网络的SAR船只实例分割方法,用来解决现有技术中目标框定位能力有限的问题。本发明基于深度学习理论,主要包括全局上下文信息建模模块和边界注意预测模块两部分。全局上下文信息建模模块通过多次增强特征的语义信息,建立长距离依赖关系,从而有效地减少背景干扰。边界注意预测模块通过两次预测目标的边界信息,从而提高目标框的定位能力。本发明提供的方法平均精度AP优于现有其他基于深度学习的SAR船只实例分割方法。本发明能够克服现有技术存在的目标框定位能力有限的问题,提高SAR图像中船只的实例分割精度。
-
公开(公告)号:CN111967292B
公开(公告)日:2022-05-17
申请号:CN202010446269.8
申请日:2020-05-25
Applicant: 电子科技大学
Abstract: 本发明公开了一种轻量级的SAR图像船只检测方法,它是基于深度学习理论的检测模型。该方法是使用轻量级深度分离卷积神经网络、采用更少的卷积层和设置更窄的卷积通道建立的,其网络结构主要由骨干网络、特征融合模块、特征增强模块和尺度共享特征金字塔模块组成。骨干网络实现船只特征的提取,特征融合模块进行深层特征和浅层特征的融合,特征增强模块完成船只特征的增强,尺度共享特征金字塔模块保证多尺度特征的充分共享。该方法实现了97.07%mAP精度和233FPS速度,且该方法的模型尺寸仅为0.82MB,达到了轻量级的要求。
-
公开(公告)号:CN114022779A
公开(公告)日:2022-02-08
申请号:CN202111238184.1
申请日:2021-10-25
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于比例尺网络的SAR船只检测方法,该方法主要包括准备数据集、构建比例尺网络、建立船只检测模型、测试船只检测模型和评估船只检测模型五个部分。该方法基于原始的ResNet‑101,引入了群卷积模块,构建了比例尺网络,从而优化网络结构以提高准确性。采用群卷积模块构建SAR船只检测模型,该模型可以提供单层网络中更丰富的多尺度信息,使得本发明中的船只检测模型具有更优越的多尺度船舶检测性能。在公知的SAR船只数据集即SSDD数据集上的仿真结果表明,与现有技术ResNet‑101方法相比,本发明可将SAR船只检测精度提高约5%。
-
公开(公告)号:CN111967292A
公开(公告)日:2020-11-20
申请号:CN202010446269.8
申请日:2020-05-25
Applicant: 电子科技大学
Abstract: 本发明公开了一种轻量级的SAR图像船只检测方法,它是基于深度学习理论的检测模型。该方法是使用轻量级深度分离卷积神经网络、采用更少的卷积层和设置更窄的卷积通道建立的,其网络结构主要由骨干网络、特征融合模块、特征增强模块和尺度共享特征金字塔模块组成。骨干网络实现船只特征的提取,特征融合模块进行深层特征和浅层特征的融合,特征增强模块完成船只特征的增强,尺度共享特征金字塔模块保证多尺度特征的充分共享。该方法实现了97.07%mAP精度和233FPS速度,且该方法的模型尺寸仅为0.82MB,达到了轻量级的要求。
-
公开(公告)号:CN113705331B
公开(公告)日:2023-12-05
申请号:CN202110775256.X
申请日:2021-07-08
Applicant: 电子科技大学
IPC: G06V20/10 , G06V10/46 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于四元特征金字塔网络的SAR船只检测方法,用来解决现有检测技术精度不足的问题。它主要包括准备数据集,基于变形卷积构建变形卷积FPN,基于内容感知重组特征构建特征重组FPN,基于路由聚合空间感知构建空间注意力FPN,基于平衡尺度全局注意力构建平衡尺度FPN,建立船只检测模型,测试船只检测模型和评估船只检测模型八个部分。该方法基于原始的FPN,构建了变形卷积FPN,特征重组FPN,空间注意力FPN和平衡尺度FPN,从而优化网络结构以提高准确性。在公知的SAR船只数据集(即SSDD数据集)上的实验结果表明,与其他12个先进的SAR船只检测器相比,本发明实现了最先
-
公开(公告)号:CN114511504B
公开(公告)日:2023-11-10
申请号:CN202210002282.3
申请日:2022-01-04
Applicant: 电子科技大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种视频SAR动目标阴影检测方法,它是通过直方图均衡阴影增强(HESE)预处理技术被用于增强阴影显著性来促进低维特征的提取;通过自注意力机制(TSAM)被用于更关注感兴趣目标区域来抑制杂波干扰;通过形状变化自适应学习(SDAL)机制利用变形卷积学习动目标阴影的形变从而克服运动速度的变化;通过语义引导锚自适应学习(SGAAL)机制通过优化锚来自适应匹配阴影的位置和形状;通过在线困难样本挖掘(OHEM)技术被用于选择典型困难负样本来提高背景识别能力。本发明克服了现有技术中不易区分与阴影相似的背景,造成虚警率高的问题以及在复杂环境中动目标阴影容易受背景干扰导致漏检等问题。
-
公开(公告)号:CN115015929A
公开(公告)日:2022-09-06
申请号:CN202210600115.9
申请日:2022-05-27
Applicant: 电子科技大学
IPC: G01S13/90
Abstract: 本发明提供一种基于稀疏模型驱动的高效高精度InSAR相位滤波网络(SMD‑Net),它是通过首先建立了干涉相位滤波的稀疏重构模型;然后通过将求解干涉相位滤波模型的展开迭代收缩阈值算法(ISTA)展开到一个块中,SMD‑Net被设计为一个基于迭代的卷积神经网络(CNN)架构。在每个块中,通过建立一个具有局部块和全局上下文(GC)块的CNN模块来自适应学习稀疏变换域。SMD‑Net建模了干涉相位滤波过程。而不是像大多数网络那样完全依赖于数据拟合,其网络结构简单。与传统的干涉相位滤波方法相比较,本发明得到更高的干涉相位的精度和计算效率明显。
-
-
-
-
-
-
-
-
-