-
公开(公告)号:CN118015255A
公开(公告)日:2024-05-10
申请号:CN202410169523.2
申请日:2024-02-06
Applicant: 中国舰船研究设计中心
IPC: G06V10/25 , G06V10/40 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/082 , G06N3/084 , G06V10/764
Abstract: 本发明公开了一种基于改进Deformable DETR的水面目标检测方法及系统,该方法包括:基于Deformable DETR模型,通过集成轻量级的MobileNetV3作为特征提取网络,引入CBAM注意力机制模块,构建基于改进Deformable DETR的水面目标检测模型;获取水面目标的训练图像数据集输入到水面目标检测模型中;经过集成轻量级的MobileNetV3进行特征提取,提取三层通道数不同的特征层,并进行额外特征变换,将四个特征层进行融合后送入含有可变形卷积的编码器和解码器,再通过分类网络得到最终的水面目标检测结果;重复训练并计算损失函数,直到得到训练好的模型;将待检测的水面目标图像输入训练好的模型,得到水面目标检测结果。本发明减少了模型参数量,降低了对计算资源的需求,提升了推理速度、训练速度和检测精度。
-
公开(公告)号:CN115511853A
公开(公告)日:2022-12-23
申请号:CN202211220843.3
申请日:2022-10-08
Applicant: 中国舰船研究设计中心
Abstract: 本发明公开了一种基于方向可变特征的遥感船舶检测与识别方法,属于图像处理及模式识别领域,包括:获取待识别目标遥感船舶图像,以旋转边界框方式标注船舶,目标遥感船舶图像与标注信息组成输入图像;得到输入图像特征图,通过候选区域生成网络获得以水平边界框表征的候选船舶区域;通过感兴趣区域变换网络计算出角度值,形成以旋转边界框表征的候选区域;将候选区域与特征图对齐,获取候选区域的方向增强特征或者方向归一化特征,以确定候选区域所属类别和所处图像位置,生成检测结果;采用非极大抑制过滤掉置信度小的候选区域。通过利用船舶的旋转边界框表征方式,提取和合理利用船舶方向信息,实现对船舶的自动、准确检测和识别。
-
公开(公告)号:CN114780393A
公开(公告)日:2022-07-22
申请号:CN202210369011.1
申请日:2022-04-08
Applicant: 中国舰船研究设计中心
Abstract: 本发明公开了一种海上无人集群智能算法测试训练系统,该系统包括算法测试训练功能模块和基础支持功能模块;其中,算法测试训练功能模块用于进行算法测试与训练,基础支持功能模块包括场景管理模块、任务管理模块、历史管理模块、算法管理模块和模型管理模块。本系统构建了可对无人集群感知认知算法、任务规划及协同控制算法进行智能化测试和训练的系统,从而可在算法接入实装前,充分优化算法参数,降低实装试验风险。
-
公开(公告)号:CN119806145A
公开(公告)日:2025-04-11
申请号:CN202411938232.1
申请日:2024-12-26
Applicant: 中国舰船研究设计中心
IPC: G05D1/43 , G05D109/30
Abstract: 本发明公开了一种强化学习与领域知识融合的无人艇集群路径规划方法,包括以下步骤:1)搭建无人艇集群路径规划模型训练场景环境;2)建立无人艇路径规划模型;初始化每个无人船路径规划的深度网络θk和深度网络Φk;3)对网络θk进行预训练;步骤4)对无人艇路径规划模型进行训练;5)对更新后无人船集群路径规划模型进行效果评估,若效果满足无人船集群路径规划需求,则结束无人船集群路径规划模型训练,得到预训练好的无人船集群路径规划模型;6)使用训练完成的无人船集群路径规划模型解决无人船集群路径规划。本发明方法引入了先验知识进行模型预训练,降低了模型的解空间复杂度;同时为模型的更新提供了引导,保证了效果的稳定性。
-
公开(公告)号:CN119648989A
公开(公告)日:2025-03-18
申请号:CN202411683217.7
申请日:2024-11-22
Applicant: 中国舰船研究设计中心
Abstract: 本发明公开了一种基于抑制卷积核滤波的抗干扰水面小目标检测方法与系统,该方法包括以下步骤:1)获取无人机拍摄的待检测的水面图像;2)图像预处理;3)使用边缘检测方法进行边缘提取;4)根据小目标的物理尺寸、无人机的作业高度、相机内参估计需要检测的目标成像像素上限S*S;5)对边缘提取后的图像用抑制卷积核进行单次滤波,对干扰部分进行滤波抑制;所述抑制卷积核包含四层:中心点、增强层、中空层和抑制层;6)对抑制后的图像进行轮廓提取,得到需要的小目标检测目标框。本发明方法不需要数据集进行学习,在兼顾检测准确率的同时,可以提高水面小目标检测的实时性。
-
公开(公告)号:CN119024850A
公开(公告)日:2024-11-26
申请号:CN202411173366.9
申请日:2024-08-26
Applicant: 中国舰船研究设计中心
IPC: G05D1/43 , G05D109/30
Abstract: 本发明公开了一种小型无人艇试验平台及无人集群算法等效验证方法,该无人艇试验平台包括无人艇平台和指控系统;无人艇平台包括艇体平台、航行控制系统、导航定位系统、导航雷达系统、一体化光电云台系统和船端数图一体通信系统;导航定位系统、导航雷达系统、一体化光电云台系统和船端数图一体通信系统均与航行控制系统连接,航行控制系统采集艇体平台的数据并执行对艇体平台的控制;指控系统包括视距遥控系统、指挥控制系统、路径规划系统和岸端数图一体通信系统;各系统均与岸端数图一体通信系统连接;船端数图一体通信系统与岸端数图一体通信系统实现无人艇平台和指控系统之间的通信。本发明实现了一种小型无人艇试验平台的设计。
-
公开(公告)号:CN118915007A
公开(公告)日:2024-11-08
申请号:CN202411001040.8
申请日:2024-07-25
Applicant: 中国舰船研究设计中心
IPC: G01S7/41
Abstract: 本发明公开了一种强机动下基于多尺度深度学习的雷达目标检测方法,属于雷达目标检测技术领域,包括:对原始的雷达回波数据进行滤波并处理成回波图像作为当前帧回波图像;利用搭载了注意力机制的Swin‑Spatial Transformer网络提取当前帧回波图像的特征图;通过Conv‑LSTM网络提取历史n帧的回波图像的时间和空间特征,并与所提取的其它尺度特征进行融合,通过后续模块输出蕴含了时空变化特征的深层特征;融合产生的多维深层特征,得到雷达回波图像的多层次、多尺度特征,并经过全连接网络输出目标方位信息。通过本发明可以实现在强机动情况下对雷达目标的高效、准确、鲁棒检测。
-
公开(公告)号:CN118674989A
公开(公告)日:2024-09-20
申请号:CN202410822818.5
申请日:2024-06-25
Applicant: 中国舰船研究设计中心
IPC: G06V10/764 , G06V10/766 , G06V10/80 , G06V10/40 , G06T7/33
Abstract: 本发明公开了一种基于图像配准的红外与可见光目标识别方法,属于多模态目标识别技术领域,包括:构建密集映射模块作为图像配准网络,通过图像配准网络对红外和可见光相机拍摄的未配准图像进行配准;将配准后的红外和可见光双模态图像送入特征交互融合模块,进行跨模态交互学习,得到具有互补信息的双模态图像特征;利用多尺度特征提取模块对融合后的双模态图像特征进行大小目标自适应感知操作,使得不同尺寸的特征能够进行融合;对不同尺寸的融合特征进行分类与回归,得到最终的船舶目标位置与类别信息。本发明通过利用图像配准网络及目标尺度自适应感知模块,可以实现对红外与可见光双模态目标的准确识别。
-
公开(公告)号:CN114780393B
公开(公告)日:2024-04-09
申请号:CN202210369011.1
申请日:2022-04-08
Applicant: 中国舰船研究设计中心
Abstract: 本发明公开了一种海上无人集群智能算法测试训练系统,该系统包括算法测试训练功能模块和基础支持功能模块;其中,算法测试训练功能模块用于进行算法测试与训练,基础支持功能模块包括场景管理模块、任务管理模块、历史管理模块、算法管理模块和模型管理模块。本系统构建了可对无人集群感知认知算法、任务规划及协同控制算法进行智能化测试和训练的系统,从而可在算法接入实装前,充分优化算法参数,降低实装试验风险。
-
公开(公告)号:CN118505748A
公开(公告)日:2024-08-16
申请号:CN202410640160.6
申请日:2024-05-22
Applicant: 中国舰船研究设计中心
Abstract: 本发明公开了一种基于雷达和相机数据关联融合的目标跟踪方法,属于多模态数据关联与融合技术领域,包含坐标转换及时间同步、基于距离和角度的多模态数据关联、重识别模型提取目标特征、时序关联跟踪和状态更新。本发明通过构建雷达和相机目标量测之间的空间关联代价矩阵(由距离、方位代价组成),实现坐标信息关联融合;同时通过在卡尔曼滤波运动模型中加入利用深度学习模型对空间关联成功的目标提取的外观特征编码,实现运动和外观信息关联融合。利用以上多属性信息关联融合策略,能够减少错误关联从而提升关联准确性,以及能够在确保目标跟踪速度的情况下提升跟踪精度,实现对目标的准确检测和可靠跟踪。
-
-
-
-
-
-
-
-
-