-
公开(公告)号:CN111427047B
公开(公告)日:2023-05-05
申请号:CN202010236546.2
申请日:2020-03-30
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种大场景下自主移动机器人SLAM方法,首先考虑机器人在空间平面运行所面临各种噪声的影响,由不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;然后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,结合位姿优化模块,得到一个精准的位姿和地图;最后将得到的位姿和地图信息传送到基于信息论方法的自主探索算法中,让机器人自主完成定位与建图任务。本发明相对其他方法计算量均很低,而且适用于结构化与非结构化环境当中,具有良好的鲁棒性,适用于更加复杂、较大的环境场合,并且能够实现机器人在未知环境下自主地大范围建图与定位。
-
公开(公告)号:CN111462282B
公开(公告)日:2023-01-03
申请号:CN202010253468.7
申请日:2020-04-02
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种场景图生成方法,将物体检测、视觉关系检测和图像区域描述三种不同层次的语义任务进行相互连接,以端到端的方式共同解决场景理解的不同语义层次的视觉任务。首先将物体、视觉关系和图像区域描述根据其空间特征和语义连接与特征信息传递图对齐,然后通过特征信息传递图将特征信息传递到三个不同层级的语义任务以实现语义特征的同时迭代更新。该方法利用场景图像不同层次的语义特征连接来实现物体检测和视觉关系检测以生成场景图像对应的场景图,并对场景图像的主要区域使用自然语言进行图像描述,同时将图像区域描述作为场景图生成的一种监督方法以提升场景图生成的准确率。
-
公开(公告)号:CN111427047A
公开(公告)日:2020-07-17
申请号:CN202010236546.2
申请日:2020-03-30
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种大场景下自主移动机器人SLAM方法,首先考虑机器人在空间平面运行所面临各种噪声的影响,由不同噪声的加权和,对激光雷达观测到的空间环境数据建立一个空间似然域模型;然后采用多级分辨率地图的方法进行最优位姿的搜索以及采用分枝定界法对搜索算法进行加速优化,结合位姿优化模块,得到一个精准的位姿和地图;最后将得到的位姿和地图信息传送到基于信息论方法的自主探索算法中,让机器人自主完成定位与建图任务。本发明相对其他方法计算量均很低,而且适用于结构化与非结构化环境当中,具有良好的鲁棒性,适用于更加复杂、较大的环境场合,并且能够实现机器人在未知环境下自主地大范围建图与定位。
-
公开(公告)号:CN111462282A
公开(公告)日:2020-07-28
申请号:CN202010253468.7
申请日:2020-04-02
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种场景图生成方法,将物体检测、视觉关系检测和图像区域描述三种不同层次的语义任务进行相互连接,以端到端的方式共同解决场景理解的不同语义层次的视觉任务。首先将物体、视觉关系和图像区域描述根据其空间特征和语义连接与特征信息传递图对齐,然后通过特征信息传递图将特征信息传递到三个不同层级的语义任务以实现语义特征的同时迭代更新。该方法利用场景图像不同层次的语义特征连接来实现物体检测和视觉关系检测以生成场景图像对应的场景图,并对场景图像的主要区域使用自然语言进行图像描述,同时将图像区域描述作为场景图生成的一种监督方法以提升场景图生成的准确率。
-
公开(公告)号:CN111476286A
公开(公告)日:2020-07-31
申请号:CN202010253480.8
申请日:2020-04-02
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种移动机器人构建地图方法,利用贝叶斯方法通过概率启发式模型提取光束投影到栅格地图单元,充分利用激光与视觉信息中的冗余信息,提取一致性特征信息,并进行特征级的信息融合;在地图更新阶段,提出一种融合激光传感器和视觉传感器的贝叶斯估计方法,对栅格地图进行更新。本发明通过多传感器信息融合可以有效提高SLAM的准确度和鲁棒性。
-
公开(公告)号:CN111444968A
公开(公告)日:2020-07-24
申请号:CN202010237438.7
申请日:2020-03-30
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是一种基于注意力融合的图像描述生成方法。使用ResNet-101作为Faster R-CNN特征提取网络,基于空间注意力和高层语义注意力融合的图像描述模型使用Faster R-CNN作为编码器提取图像中物体和显著视觉区域的位置和名称,将目标对应的特征向量和名称分别作为空间注意力机制和高层语义注意力机制的输入,经过注意力模型整合处理后送入解码器,最终由解码器生成单词序列。本发明克服了直接划分图像得到的空间注意力不能准确地提取图像中目标对应特征的问题,提高图像描述的效果。
-
公开(公告)号:CN111444859A
公开(公告)日:2020-07-24
申请号:CN202010237441.9
申请日:2020-03-30
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种无监督跨域人脸表情识别方法,通过找到一个特征变换矩阵将源域和目标域样本映射到一个公共子空间,引入无参数的最大均值差异MMD来度量源域和目标域数据之间边缘分布和条件分布的距离,在该子空间中联合对齐边缘分布和条件分布,最小化域之间的分布距离。然后对变换的特征进行训练得到一个域适应分类器,来对目标域中的数据标签进行预测。本发明克服了目前存在的大多数人脸表情识别需要满足所用的测试集与训练集均来自于同一个数据集,即训练样本与测试样本满足独立同分布的假设,且不需要在目标域中带有标签样本,提高了跨域人脸表情的识别效果。
-
公开(公告)号:CN111444858A
公开(公告)日:2020-07-24
申请号:CN202010237436.8
申请日:2020-03-30
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是一种移动机器人场景理解方法。视觉系统捕获的场景的单个RGB-D场景图像作为输入,利用基于与或图的随机语法模型对所述的场景图像进行解析和配置、恢复出场景中被遮挡的物体部分,采用贝叶斯概率模型对物体之间的相对关系以及物体与场景之间的相对关系进行推理,结合先验信息对场景图像进行三维重构,使用最大后验概率估计找到解析和重建图像的最优解,在大规模RGB-D数据集上将重建的三维场景整体布局与场景的真实情况进行比较。本发明使用物体空间位置关系推理和场景整体布局估计方法,提升复杂场景理解相关算法的性能和效率,实现移动机器人对场景环境的准确理解,推动场景理解算法在智能机器人等相关行业的应用。
-
-
-
-
-
-
-