-
公开(公告)号:CN116403099A
公开(公告)日:2023-07-07
申请号:CN202211612521.3
申请日:2022-12-14
Applicant: 大连海事大学
IPC: G06V20/05 , G06V10/20 , G06V10/82 , G06V10/80 , G06V10/764 , G06V10/766 , G06T3/40 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提供一种基于多任务联合训练的低分辨率水下图像目标检测方法,包括如下步骤:获取包含期望水下目标的真实水下场景高分辨率图像,并针对所述图像数据中的所述期望水下目标进行标注;将获取的所述真实水下场景高分辨率图像进行模糊化处理;构建基于多任务联合训练的低分辨率水下图像的目标检测网络;所述目标检测网络为卷积神经网络;对所述目标检测网络进行超参数设置并对训练;待网络训练完毕后,运行训练后的目标检测网络,对待检测水下图像进行目标检测。本发明可有效实现对低分辨率水下图像数据进行精准检测、识别。
-
公开(公告)号:CN115914495A
公开(公告)日:2023-04-04
申请号:CN202211429583.0
申请日:2022-11-15
Applicant: 大连海事大学
IPC: H04N5/222 , G06T7/194 , G06V10/26 , G06V10/40 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08 , H04N5/272 , G10L15/06
Abstract: 本发明提供一种用于车载自动驾驶系统的目标与背景分离方法及装置,方法包括:构建红外镜像生成系统,所述红外镜像生成系统用于将输入图像进行像素的逐级提取,并将各级提取的红外辐射图像在物面叠加;基于所述红外镜像生成系统获取待处理红外景象生成数据;将所述红外景象生成数据输入训练后的语义分割模型进行语义特征提取,从而获取红外景象生成数据的语义分割特征;将所述语义分割特征输入训练后的前景背景判断模型景象前景提取,从而获得与所述红外景象生成数据对应的前景掩码,实现目标与背景分离。本发明能够在帧频范围内通过脉宽调试方法生成高灰度的红外景象,并基于预训练的神经网络模型实现目标前景的高效精确提取。
-
公开(公告)号:CN115761467A
公开(公告)日:2023-03-07
申请号:CN202211456179.2
申请日:2022-11-21
Applicant: 大连海事大学
IPC: G06V20/05 , G06V10/82 , G06T5/10 , G06V10/46 , G06V10/80 , G06N3/08 , G06T5/00 , G06V10/774 , G06N3/0464
Abstract: 本发明提供一种基于高低频特征差分金字塔神经网络的水下目标检测方法,包括:获取水下图像数据,并对获取的水下图像数据进行预处理和小波变换操作,得到网络的输入数据;构造高低频双分支网络,对预处理和小波变换操作后的水下图像进行特征提取;分别抽取高低频双分支网络提取的特征中的4个中间特征层进行拼接以及残差减法的差分操作,构造双分支多尺度特征金字塔;对双分支多尺度特征金字塔进行特征融合,构造多尺度输出特征图,通过每个特征融合后的输出结果实现对水下图像不同尺度目标的检测。本发明的技术方案能够有效实现对水下目标的高精度、高速度的检测,同时实现对水下场景进行更有效的监控,节省时间和资金成本。
-
公开(公告)号:CN113221818B
公开(公告)日:2024-03-29
申请号:CN202110586283.2
申请日:2021-05-27
Applicant: 大连海事大学
Abstract: 本发明提供一种海面溢油特征智能检测方法及系统。方法包括:获取环境监测参考特征;根据所述环境监测参考特征选择将要获取的监测图像类型;获取相应类型的检测图像,对所述检测图像进行增强处理,从而获得增强图像;利用预先训练的海面溢油目标检测模型对所述增强图像进行目标提取,从而获得溢油区域目标。本发明通过对红外图像与可见光图像的识别,利用优化的双边检测网络训练出性能极好的海面溢油目标区域识别的模型,从而可以在待检测图像中实时的、准确的识别并标记出完整的溢油区域。
-
公开(公告)号:CN117634557A
公开(公告)日:2024-03-01
申请号:CN202311561700.3
申请日:2023-11-21
Applicant: 大连海事大学
IPC: G06N3/0455 , G06N3/0464 , G06V10/44 , G06V10/80 , G06V10/82
Abstract: 本发明一种基于多尺度独立‑协同编码与集成解码深度神经网络的视觉处理方法,包括以下步骤:根据实际任务要求获得相应影像数据;对获得的相应影像数据划分为训练集数据和测试集数据;构建多尺度独立‑协同编码与集成解码的深度神经网络;基于训练集数据对构建的多尺度独立‑协同编码与集成解码的深度神经网络进行训练,得到训练好的多尺度独立‑协同编码与集成解码的深度神经网络;将测试集数据输入到训练好的多尺度独立‑协同编码与集成解码的深度神经网络中,实现对应的实际任务;本发明充分引入Transformer结构,有效增强深度神经网络中不同层次特征的充分融合,有效增强深度神经网络在解决不同高级视觉任务的能力。
-
公开(公告)号:CN116644787A
公开(公告)日:2023-08-25
申请号:CN202310705535.8
申请日:2023-06-14
Applicant: 大连海事大学
IPC: G06N3/0464 , G06N3/08 , G06V10/82
Abstract: 本发明一种用于提升网络性能的卷积神经网络构造方法,属于人工智能技术领域,该方法包括以下步骤:根据不同低级计算机视觉的任务,选取相应的图像数据集,并划分为训练集和测试集;将训练集中的图片进行预处理;构建用于提升网络性能的通用泛化卷积神经网络;基于预处理后的训练集图片,对所述通用泛化卷积神经网络进行训练,得到训练好的通用泛化卷积神经网络,实现图片不同低级计算机视觉任务。该方法使卷积神经网络具备多尺度的感受野以捕获并理解不同层次的特征,此外,该方法还通过构造多分支稠密交互连接的方式,促进特征信息在网络架构间的传递,使得提升网络的训练速度,大幅度增加网络的计算资源利用率,提升网络的性能与泛化能力。
-
公开(公告)号:CN115700731A
公开(公告)日:2023-02-07
申请号:CN202211441149.4
申请日:2022-11-17
Applicant: 大连海事大学
IPC: G06T5/00 , G06N3/0464 , G06N3/08 , G06V10/40 , G06V10/774
Abstract: 本发明提供了一种基于双通道卷积神经网络的水下图像增强方法,涉及水下图像增强与复原技术领域,包括如下步骤:S1:建立图像训练集;S2:将一张待优化目标图像输入至浅层卷积神经网络分支对目标图像的全局结构进行优化,得到全局结构优化图像;S3:将另一张待优化目标图像输入至深层卷积神经网络分支对目标图像进行细节信息恢复,得到细节信息恢复图像;S4:将全局结构优化图像和细节信息恢复图像输入至微调卷积神经网络中,利用张量拼接操作进行图像融合,输出增强后目标图像;S5:对图像训练集中的所有图像进行上述步骤,直至图像增强完毕。本发明能够有效增强对比度低、颜色失真严重的水下图像,同时保留图像的细节信息,较好的改善图像质量。
-
公开(公告)号:CN115375546A
公开(公告)日:2022-11-22
申请号:CN202211040040.X
申请日:2022-08-29
Applicant: 大连海事大学
Abstract: 本发明公开了一种基于多尺度级联残差网络的遥感图像超分辨方法,其包括:获取并收集公开的历史遥感图像数据,作为初始高清遥感图像数据;将初始高清遥感图像数据进行预处理以生成相应的低清遥感图像,进一步匹配得到遥感图像对,并对遥感图像对进行划分,其中一部分作为训练集数据,另一部分作为测试集数据;构建面向遥感图像超分辨的多尺度级联残差网络模型;利用训练集数据与测试集数据,分别对网络模型进行训练与测试,最终得到超分辨遥感图像。本发明利用残差网络充分提取图像的多尺度特征,并通过级联连接的方式将不同尺度的特征进行融合,解决了遥感图像中小目标超分辨效果不佳的问题。
-
公开(公告)号:CN113379797A
公开(公告)日:2021-09-10
申请号:CN202110610286.5
申请日:2021-06-01
Applicant: 大连海事大学
Abstract: 本发明提供一种无人机观测目标的实时跟踪方法及系统。方法包括:通过无人机获取目标视频序列,所述目标视频序列的各帧均包括跟踪目标;由所述目标视频序列识别出跟踪目标,并通过预先训练的孪生神经网络处理所述目标视频序列,得到后续视频帧中跟踪目标的位置;基于视频序列中相邻帧中跟踪目标的位置,计算跟踪目标偏移量;对像素坐标与大地坐标系进行转换,根据所述跟踪目标偏移量获取实际无人机对应的移动角度与移动距离,从而实现目标跟踪。本发明通过孪生神经网络提取图像的深度特征,对跟踪目标的识别与捕捉更加准确且快速,网络属于轻量级网络,能够实时的应用于无人机平台。
-
公开(公告)号:CN113238550A
公开(公告)日:2021-08-10
申请号:CN202110391092.0
申请日:2021-04-12
Applicant: 大连海事大学
Abstract: 本发明提供一种基于路标自适应校正移动机器人视觉归航方法,包括:获取目标位置全景图像LH和当前位置全景图像LC;基于获取的目标位置图像LH和当前位置图像LC,根据SURF图像匹配算法,改变匹配阈值r的大小,获取不同准确率的路标,并对路标自适应分配权重wi;基于路标在图像上分布的差异,对路标自适应分配权重ηi;基于权重wi和权重ηi,确定最终路标权重φi,φi=wi·ηi;基于带有最终路标权重的路标,计算归航向量h,控制机器人移动,完成归航。本发明根据提取路标的两个约束条件,对于不同准确率的路标自适应赋予不同的权重,在不消除误匹配路标的前提下,提高整体路标的精度,从而计算出更加准确的归航向量,提高机器人的归航精度,提高机器人自主导航能力。
-
-
-
-
-
-
-
-
-