-
公开(公告)号:CN113721639A
公开(公告)日:2021-11-30
申请号:CN202111011001.2
申请日:2021-08-31
Applicant: 哈尔滨工程大学
IPC: G05D1/06
Abstract: 一种用于小型水下机器人入坞的路径规划方法及控制方法,涉及机器人水下入坞控制技术领域,用以解决现有机器人入坞方法由于没有对机器人水下行走路径进行有效规划而导致入坞效率低的问题。本发明提出以机器人为参考建立虚拟圆柱体,机器人初始位置和三维路径终点均在虚拟圆柱体表面,基于虚拟圆柱面生成一条轨迹,使机器人沿轨迹到达三维路径终点,从而继续沿中心线进入坞基站;本发明利用机器人和坞基站的相对位置和方向生成三维路径,提高了机器人入坞成功率。进一步将三维路径分为水平路径和垂直路径,根据在水平方向和垂直方向上计算得到的力和扭矩,控制机器人按照生成的三维路径行走。本发明可应用于水下机器人入坞前的路径规划和控制。
-
公开(公告)号:CN113296524A
公开(公告)日:2021-08-24
申请号:CN202110450053.3
申请日:2021-04-25
Applicant: 哈尔滨工程大学
IPC: G05D1/06
Abstract: 本发明提出一种水下仿生球形/半球形机器人的推力矢量分配优化方法,所述机器人赤道面周向分布四组腿部机构,每组所述腿部机构至少包括依次连接的第一水平转动关节、第一连杆、第一垂直转动关节及远端连接的推进器,所述方法包括:S1,建立所述机器人的多种运动模式,所述多种运动模式至少包括“H”型运动模式、“工”型运动模式和“X”型运动模式;S2,建立所述多种运动模式分别对应的运动模型,所述运动模型至少包括“H”型运动模型、“工”型运动模型和“X”型运动模型;S3,根据多个所述运动模型建立多并联PID控制模型,设定期望航迹点,以所述机器人的位置信息和姿态角信息为反馈信息,切换所述运动模式,闭环控制所述机器人运动。
-
公开(公告)号:CN111413118A
公开(公告)日:2020-07-14
申请号:CN202010196909.4
申请日:2020-03-19
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种水下深度数据采集系统,包括:深水耐压舱、深度传感器、处理板卡和深水接插件;至少三路深度传感器安装于深水耐压舱内部,且每一路深度传感器的头部均与深水耐压舱内部的顶端相连;处理板卡安装于深水耐压舱内部且与深水耐压舱内部的底端相连,且处理板卡与每一路深度传感器的尾部线缆插头相连;深水接插件安装于深水耐压舱外部底端,且深水接插件底座四芯线缆插头与处理板卡相连。本发明公开的水下深度数据测量系统同一时刻可以采集到至少三路数据,计算至少两路数据的均值,得到的计算结果精确度高;即使有一路传感器出现故障,其他几路也可继续工作,给出准确的深度数据,具有很高的可靠性和稳定性;深水耐压舱的结构设计也增强了本系统的可靠性和稳定性。
-
公开(公告)号:CN110991516A
公开(公告)日:2020-04-10
申请号:CN201911188861.6
申请日:2019-11-28
Applicant: 哈尔滨工程大学
IPC: G06K9/62
Abstract: 本发明属于侧扫声呐图像识别技术领域,具体涉及一种基于风格迁移的侧扫声呐图像目标分类方法。本发明使用显著性检测方法及风格迁移网络,将常规光学图像转换成仿侧扫声呐图像,拉近了源领域及目标领域间的距离,增加了可直接迁移的基本特征数目,可有效提高迁移学习效率;同时,通过使用迁移学习方法,对经过充分训练的深度学习网络进行迁移,利用图像基本特征具有通用性的特点,可以有效降低优化参数数目,避免因训练样本不足无法应用深度学习技术的问题。本发明使用风格迁移及迁移学习方法,对使用人工生成的仿侧扫声呐图像训练好的卷积神经网络进行迁移,从而提高迁移学习效率,防止负迁移现象。
-
公开(公告)号:CN110487254A
公开(公告)日:2019-11-22
申请号:CN201910622509.2
申请日:2019-07-11
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是一种用于ROV的水下目标尺寸快速测量方法。步骤一.对水下畸变的双目左右视图,进行水下标定参数矫正与Bouguet极线矫正;步骤二.在ROV水面监测系统中的双目左视图上选择待测目标对应的两端点中的一个端点,利用粗-精立体匹配算法确定出在右图上的匹配点;步骤三.根据双目测量原理,恢复出所选点的三维坐标;步骤四.重复步骤二和步骤三得到第二个端点,然后再计算这两个点的欧式距离,得到两个点间的真实距离。相对于传统的基于全局匹配算法的测量方法,本发明所用方法能够实现更快速与更精确的水下目标尺寸测量,可广泛应用于ROV水下测量任务,具有非常好的实用性。
-
公开(公告)号:CN109785260A
公开(公告)日:2019-05-21
申请号:CN201910026679.4
申请日:2019-01-11
Applicant: 哈尔滨工程大学
IPC: G06T5/00
Abstract: 本发明属于侧扫声呐图像处理技术领域,具体涉及一种针对侧扫声呐图像的非线性增强方法。本发明包括如下步骤:从原始侧扫声呐数据文件中获取原始图像,然后对原始图像依次进行灰度归一化、邻域极值抑制和高斯平滑,再针对平滑后的图像计算低灰度区最大值、高灰度区最小值和中间灰度区,最后对上述三个区域分别进行非线性校正,得到增强后的图像。通过上述步骤,本发明能够快速、有效、低成本地实现对原始侧扫声呐图像有效信号的增强和无效信号的抑制,增强图像局部特征的对比度,并且保持原始图像的边缘和灰度分布的单调性,不引伪边缘等。
-
公开(公告)号:CN108444447A
公开(公告)日:2018-08-24
申请号:CN201810165090.8
申请日:2018-02-28
Applicant: 哈尔滨工程大学
Abstract: 本发明提供了一种用于水下避障系统中的渔网实时自主检测方法,属于计算机视觉领域,通过水下激光探测手段和一种基于深度生成网络和深度学习回归式与区域建议相结合目标检测的方法,减少图像预处理操作的时间。本发明使用基于水下激光扫描系统采集渔网图像,克服传统光在水下的后向散射作用以及声波受海水环境影响敏感性问题,得到清晰、高亮度的水下渔网图像,可直接用于后期的渔网检测,不需要通过去噪等前期预处理手段,大大提升后期渔网目标检测过程的实时性,既保证深度学习大数据量的要求,又在保证实时性的前提下提高渔网目标检测的置信度,为水下避障系统提供视觉部分的渔网检测技术方法。
-
公开(公告)号:CN115880390A
公开(公告)日:2023-03-31
申请号:CN202211565611.1
申请日:2022-12-07
Applicant: 哈尔滨工程大学
IPC: G06T11/00 , G06F7/10 , G06N3/044 , G06N3/0475 , G06N3/094
Abstract: 本发明涉及一种仿真声呐图像生成方法,该方法首先对CycleGAN网络进行改进,包括对生成器G和生成器F的输入输出图像,分别使用Otsu算法和Unet网络进行分割,并将分割结果融合,根据正向生成器G和反向生成器F输入输出的融合图像计算SSIM损失,将其加入到CycleGAN网络生成器损失中;然后利用简易声呐仿真图像和真实声呐图像进行训练,并用训练好的改进CycleGAN网络生成风格化仿真声呐图像;使用改进的CycleGAN网络生成仿真声呐图像,可减小仿真图像与真实图像在结构、边缘特征等方面的差异,从而保证仿真声呐图像与真实图像更加相似。
-
公开(公告)号:CN110929794B
公开(公告)日:2022-12-13
申请号:CN201911188526.6
申请日:2019-11-28
Applicant: 哈尔滨工程大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04
Abstract: 本发明属于侧扫声呐图像识别技术领域,具体涉及一种基于多任务学习的侧扫声呐图像分类方法。本发明结合了多任务学习思想和卷积神经网络方法,使用卷积神经网络进行自动特征提取,相对于传统的人工设置的特征提取器,可以提取出人眼感受不到的那些重要特征,也能减小侧扫声呐图像噪声、图像边缘缺失、图像特征变形等因素对特征提取的影响。本发明利用多任务学习的思想,通过引入光学图像分类任务,可以丰富侧扫声呐图像的特征空间,避免了样本过少时特征提取不完备造成的过拟合的问题;通过本发明的方法,可以解决侧扫声呐图像样本少、特征提取困难时分类效果差的问题,具有一定的工程和研究价值。
-
公开(公告)号:CN113306685B
公开(公告)日:2022-08-23
申请号:CN202110572183.4
申请日:2021-05-25
Applicant: 哈尔滨工程大学
Abstract: 本发明提出一种水下仿生球形/半球形机器人的位姿感知方法,该机器人包括一球形/半球形外壳、一压力传感器阵列,压力传感器阵列沿外壳周向布置,该方法包括:步骤1,确定压力传感器阵列中的迎水面压力传感器,读取迎水面压力传感器的数据,计算各个迎水面压力传感器感测的压力;步骤2,将各个迎水面压力传感器感测的压力、水流对机器人迎水面的压力、以及读数最大的压力传感器的感受面垂直方向与水流方向的夹角为参数,求解机器人的运动速度和运动方向;步骤3,根据机器人在世界坐标系OE下的运动速度,以及机器人的姿态信息,计算机器人的位置。本发明解决了小型化水下机器人无法实现运动速度和运动方向感知的问题,且实现成本低。
-
-
-
-
-
-
-
-
-