-
公开(公告)号:CN114114284B
公开(公告)日:2024-07-05
申请号:CN202111307312.3
申请日:2021-11-05
Applicant: 哈尔滨工程大学
Abstract: 本发明提出一种前视声呐图像目标分割方法、系统和电子设备,所述方法包括:步骤一:对于采集得到的前视声呐目标图像,利用数学形态学重建方法进行预处理;步骤二:使用添加距离约束项的水平集算法对预处理后的图像进行分割,得到最终目标边界分割结果;该方法以传统的C‑V水平集分割算法为基础,在其中添加了以形态学重建为基础的分割预处理过程,解决了边界分割精度不高的问题。同时该方法也可在一定程度上削弱初始轮廓设定位置对最终分割结果的影响。通过本发明的评价过程证实所述方法对水下目标边界分割结果更加准确,效果更为理想,更加适用于前视声呐图像的目标分割过程。
-
公开(公告)号:CN116883766A
公开(公告)日:2023-10-13
申请号:CN202310696427.9
申请日:2023-06-13
Applicant: 哈尔滨工程大学
IPC: G06V10/77 , G06V10/82 , G06V10/774 , G06V20/05 , G06T7/246 , G06N3/0464 , G06N3/096 , G01S15/66 , G01S15/89
Abstract: 本发明提出一种基于深度学习的前视声呐图像水下多目标跟踪方法。所述方法包括:步骤一、需要采集声呐图像,并根据需要构建目标检测模型的数据集。步骤二:在基于YOLOv5s模型的基础上,添加CBAM注意力机制模块,并用SPD‑Conv小目标检测模块替换原网络结构中起下采样作用的卷积层。步骤三:为了训练YOLOv5_cs网络模型并得到预训练模型,利用公开声呐图像数据集,并采用迁移学习的方法。本发明将在YOLOv5_cs模型基础上,使用公开声呐图像数据集进行微调和训练,以使模型适应声呐图像的特点,并提高其在目标跟踪任务中的性能。
-
公开(公告)号:CN115661627A
公开(公告)日:2023-01-31
申请号:CN202211300084.1
申请日:2022-10-24
Applicant: 哈尔滨工程大学
IPC: G06V20/05 , G06V10/82 , G06N3/0464 , G01S7/41
Abstract: 本发明提出一种基于GAF‑D3Net的单波束水下目标识别方法。所述方法包括:对于声呐回波信号,首先进行预处理,完成目标区域筛选以及降维处理;使用格拉姆角场GAF编码为二维图像信号,生成格拉姆角差场GADF和格拉姆角和场GASF;构建GAF‑D3Net卷积神经网络结构,将GAF图像输入GAF‑D3Net中训练,实现图像的特征提取和分类判别。该方法解决了声呐图像只使用信号幅值信息而忽略了相位信息的问题,在降维的同时保证了序列的时间变化趋势,保留了信号的时间相关性,将信号编码为适合卷积神经网络训练的二维图像形式。通过评价过程证实该方法对水下目标分类结果更加准确,效果更为理想,同时具有更好的泛化性能。
-
公开(公告)号:CN114114284A
公开(公告)日:2022-03-01
申请号:CN202111307312.3
申请日:2021-11-05
Applicant: 哈尔滨工程大学
Abstract: 本发明提出一种前视声呐图像目标分割方法、系统和电子设备,所述方法包括:步骤一:对于采集得到的前视声呐目标图像,利用数学形态学重建方法进行预处理;步骤二:使用添加距离约束项的水平集算法对预处理后的图像进行分割,得到最终目标边界分割结果;该方法以传统的C‑V水平集分割算法为基础,在其中添加了以形态学重建为基础的分割预处理过程,解决了边界分割精度不高的问题。同时该方法也可在一定程度上削弱初始轮廓设定位置对最终分割结果的影响。通过本发明的评价过程证实所述方法对水下目标边界分割结果更加准确,效果更为理想,更加适用于前视声呐图像的目标分割过程。
-
公开(公告)号:CN117475173A
公开(公告)日:2024-01-30
申请号:CN202311462368.5
申请日:2023-11-06
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种基于改进的SMC‑PHD算法的三维水下多目标跟踪方法,所述方法包括:将多目标的二维声呐检测结果转换至三维坐标系中,以其在三维坐标系中的坐标值作为改进的SMC‑PHD算法的量测值进行滤波计算,获得目标的跟踪结果,其中,所述改进的SMC‑PHD算法在原SMC‑PHD算法的重采样中使用最小采样方差采样法,并加入了对连续多帧图像的状态估计结果的判断和根据判断进行的调整。本发明可对水下多目标进行三维的无漏跟踪,所得跟踪轨迹精度高、无断裂。
-
公开(公告)号:CN116152651A
公开(公告)日:2023-05-23
申请号:CN202310123649.1
申请日:2023-02-16
Applicant: 哈尔滨工程大学
Abstract: 本发明提出一种作用于海洋中的基于图像识别技术的声呐目标识别与检测方法。本发明采用图像声呐捕捉目标,从而获得目标图像;建立图像声呐目标标准图像库;采用卷积神经网络的目标识别算法搭建网络;将搭建好的网络与数据库相连,重复训练后得到模型;将采集到的图像输入至模型中,判断是否符合要求;得出结果。本发明通过训练神经网络,可存储大量相关数据,并通过比对数据提高识别效率和准确率。
-
公开(公告)号:CN119936854A
公开(公告)日:2025-05-06
申请号:CN202510012454.9
申请日:2025-01-06
Applicant: 哈尔滨工程大学
Abstract: 本发明公开一种用于多波束声呐图像的解卷积超波束形成方法及系统,属于声呐图像处理领域;采集多波束声呐数据,创建目标特性数据库;利用超波束形成方法,生成用于解卷积的点扩散函数;通过Richardson‑Lucy迭代算法优化方位谱;调整算法参数,通过仿真和实验验证优化后的Dcv‑HBF算法性能;输出清晰的目标声呐图像,用于目标检测与背景噪声抑制分析。本发明结合超波束形成HBF与解卷积常规波束形成Dcv‑CBF的原理,以HBF波束图作为点扩散函数PSF,利用R‑L迭代算法对HBF的方位谱进行解卷积,生成Dcv‑HBF的空间谱,提升了声呐成像的空间分辨率和背景噪声抑制能力。
-
公开(公告)号:CN118897280A
公开(公告)日:2024-11-05
申请号:CN202410926551.4
申请日:2024-07-11
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种基于声图像重建的阵列诊断方法和系统,利用高分辨率的声学成像技术,将声纳阵列中的每个阵元视为水下亮点目标,并通过复杂的数据处理算法生成阵列的二维声图像。本发明通过精确的时延补偿和数据投影,能够准确地定位和量化阵列中的失效阵元,包括位置和辐射强度分布。相较于传统技术,本发明在处理近场信号时提供了更高的精度和更低的诊断误差,同时不需要事先了解无损坏阵列的波束图,展现出更广泛的适用性和实用价值。
-
公开(公告)号:CN118537715A
公开(公告)日:2024-08-23
申请号:CN202410660226.8
申请日:2024-05-24
Applicant: 哈尔滨工程大学
IPC: G06V20/05 , G06V10/26 , G06V10/82 , G06V10/40 , G06V10/25 , G06V10/762 , G06V10/764 , G06V10/774 , G06N3/049 , G06N3/08
Abstract: 本发明公开了基于脉冲耦合神经网络的声呐图像鱼类目标快速检测方法,首先对声呐数据预处理,双线性插值减少图像尺寸,通过伽马变换增强图像,凸显出待测目标;分别使用FCM算法与K—means算法对图像聚类,通过形态学滤波(腐蚀、重建)得到更加集中的亮点集群,将两组图片取并集,对其中的亮点集群进行初步的面积筛选,将大小不合理的集群去除,得到初步的兴趣区域(ROIs);使用脉冲耦合神经网络(PCNN)分割ROIs,对分割出的目标以及ROIs本身提取特征组成特征空间;最后,对特征空间进行非线性变换,将经过非线性变换的特征空间输入Fisher判别来分类检测,本发明不仅能够滤除绝大部分虚警目标,而且运算速度快,对不同的检测环境也有较好的普适性和鲁棒性。
-
公开(公告)号:CN116863321A
公开(公告)日:2023-10-10
申请号:CN202310814151.X
申请日:2023-07-05
Applicant: 哈尔滨工程大学
IPC: G06V20/05 , G06V10/82 , G06V10/80 , G06V10/52 , G06V10/54 , G06V10/774 , G06N3/0464 , G06N3/045 , G06N3/048 , G06N3/08 , G01S15/89
Abstract: 本发明公开了基于SSE‑YOLO深度学习模型的前视声纳图像小目标识别方法,属于深度学习领域;该方法包括:基于经典YOLOv3模型设计轻量级特征提取模块SSE,并搭建了主干网络;融合更浅层特征与深层特征构建一个新预测层,增强小目标表征能力;在颈部网络中使用卷积注意力机制模块CBAM,通过强化检测目标特征以提高抗背景干扰能力。该方法在在性能和消耗之间取得了令人满意的平衡,以满足在设备计算能力受限前提下,实现对声纳图像目标实时快速检测。通过评价过程证实该方法的平均精度和检测速度均高于目前的轻量级主流算法YOLOv5n,能更好地实现嵌入式部署。
-
-
-
-
-
-
-
-
-