基于显著场景点检测的移动机器人级联地图创建方法

    公开(公告)号:CN103278170B

    公开(公告)日:2016-01-06

    申请号:CN201310183577.6

    申请日:2013-05-16

    Applicant: 东南大学

    CPC classification number: G05D1/0274

    Abstract: 本发明涉及移动机器人导航技术领域。本发明公开了一种基于显著场景点检测的移动机器人级联地图创建方法。包括如下步骤:1)根据移动机器人传感器采集的图像数据,在线检测显著场景对应的自然场景路标,生成全局地图中的拓扑节点;2)更新移动机器人位姿和局部栅格子地图;3)以显著场景点作为拓扑节点创建全局拓扑地图结构,在机器人轨迹闭合检测的基础上,引入加权扫描匹配法和松弛法对拓扑结构进行优化,确保拓扑地图的全局一致性。该发明适用于各类移动机器人在包含多个房间、走廊等区域的室内大范围环境中进行自主路径规划和导航应用。

    构件化机器人系统的服务模型与网络辅助资源利用方法

    公开(公告)号:CN103279667B

    公开(公告)日:2015-11-04

    申请号:CN201310210880.0

    申请日:2013-05-29

    Applicant: 东南大学

    Abstract: 本发明公开了一种构件化机器人系统的服务模型与网络辅助资源利用方法,所述服务模型包括语义和状态信息两层结构,本发明方法包括如下步骤:首先以服务说明文档的形式对服务构件的功能进行描述和存储;其次机器人通过自身的任务需求建模和服务匹配过程发现网络中的可用服务构件;然后机器人根据服务匹配规则,利用服务组合算法得到完成任务所需的服务构件组合;最后针对本地网络资源的服务类型和空间分布已知特性,采用服务拓扑图实现本地同类网络资源的快速切换。本发明实现了机器人根据自身任务需求、自动灵活地选择和调用网络中的各种服务资源,解决了网络资源异构性、动态性等关键问题,最终可实现将积聚于机器人一身的智能分散到网络环境中。

    一种基于核化运动基元的人机协同铺盖轨迹模仿学习方法

    公开(公告)号:CN117359626A

    公开(公告)日:2024-01-09

    申请号:CN202311386039.7

    申请日:2023-10-23

    Abstract: 本发明涉及人机协同运动轨迹模仿学习领域,公开一种基于核化运动基元的人机协同铺盖轨迹模仿学习方法,包括以下步骤:1)采集人机协同铺盖过程中的人机联合示教轨迹,并进行预处理,从而构建训练样本。2)采用核化运动基元模型,在训练样本中学习人手位置与机械臂末端位置间的非线性关系。3)采用基于语义分割的织物抓取点检测方法识别并抓取布匹一角;4)在预测阶段,依据由RGB‑D相机检测获取的人手位置,实时地预测机械臂末端的响应位置,为机器人生成与人手当前位置及其运动趋势相协调的末端运动轨迹,从而完成人机协同铺盖动作。

    一种机器人利用常识根据室内物品推理房间类型的推理网络的构建方法

    公开(公告)号:CN109783652B

    公开(公告)日:2023-01-17

    申请号:CN201910090552.9

    申请日:2019-01-30

    Applicant: 东南大学

    Abstract: 本发明提供了一种机器人利用常识根据室内物品推理房间类型的推理网络的构建方法,属于服务机器人任务规划与执行的技术领域。本发明的方法主要包括:步骤1,查询常识知识库获取各种物品在各种类型房间中的出现概率;步骤2,判断每种物品与各种房间类型之间是否存在显著性相关关系;步骤3,将具有显著性相关关系的物品和房间类型生成一阶逻辑,利用原概率计算该一阶逻辑的参数,构成推理网络。本发明机器人根据室内物品推理房间类型的推理网络的构建方法,综合考虑了常识知识与室内环境的差异性和常识知识的通用性以及推理网络的复杂程度,提出的发明可以有效的减小推理网络的复杂度,提升房间分类的准确性。

    动态场景下基于语义分割与图像修复的视觉回环检测方法

    公开(公告)号:CN111696118B

    公开(公告)日:2022-11-15

    申请号:CN202010447355.0

    申请日:2020-05-25

    Applicant: 东南大学

    Abstract: 一种动态场景下基于语义分割与图像修复的视觉回环检测方法,包括以下步骤:1)在历史图像库中预训练的ORB特征离线词典;2)获取当前RGB图像作为当前帧,利用DANet语义分割网络分割出图像属于动态场景区域;3)利用图像修复网络对已经进行掩膜覆盖的图像进行图像修复;4)将所有历史数据库图像作为关键帧,用当前帧图像与所有关键帧图像逐一进行回环检测判断;5)根据两帧图像词袋向量的相似度和对极几何判断是否构成回环;6)进行判定。本发明可用于在动态作业环境下视觉SLAM中的回环检测,用于解决由于场景中存在作业人员、车辆、巡检机器人等动态目标而导致特征匹配错误以及由于对动态区域分割导致特征点过少而无法正确检测回环的情况。

    一种基于域迁移和深度补全的物体姿态估计方法

    公开(公告)号:CN113297988A

    公开(公告)日:2021-08-24

    申请号:CN202110592716.5

    申请日:2021-05-28

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于域迁移和深度补全的物体姿态估计方法,包括以下步骤:1)针对实验场景采集物体姿态估计真实数据集,利用仿真生成器生成物体姿态估计仿真数据集;2)基于领域自适应技术实现仿真数据到真实数据的迁移;3)利用迁移后的物体姿态估计数据集,训练基于感知融合的物体姿态估计网络;4)通过深度相机获取场景的颜色和深度信息,并补全深度信息;5)给定场景中的颜色图和补全后深度图,利用物体姿态估计训练结果,进行目标物体的姿态估计。本发明针对实物域制作数据集困难、深度相机获取深度信息失真等问题,通过域迁移来缓解数据采集与标注成本,使用深度补全来改善深度信息的质量,该方法具有对未知、复杂场景的泛化性能。

    基于逐步对抗学习的半监督图像实例分割方法

    公开(公告)号:CN109949317B

    公开(公告)日:2020-12-11

    申请号:CN201910168475.4

    申请日:2019-03-06

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于逐步对抗学习的半监督图像实例分割方法,包括步骤:1、构建Mask R‑CNN实例分割模型;2、基于DCGAN训练Mask R‑CNN中的FPN;3、采用标注数据对Mask R‑CNN中的其他模块进行初步训练;4、构建判别卷积网络,与Mask R‑CNN构成对抗学习网络,通过对抗训练,优化对抗学习网络的参数;5、将判别卷积网络的输出反馈至Mask R‑CNN,对实例分割模型进行再训练;6、利用实例分割模型对待分割图像进行分割。该方法利用仅有部分标注图像的样本集进行模型训练,减少了处理样本的工作量,且能够获得较高精确度的分割模型。

    动态场景下基于语义分割与图像修复的视觉回环检测方法

    公开(公告)号:CN111696118A

    公开(公告)日:2020-09-22

    申请号:CN202010447355.0

    申请日:2020-05-25

    Applicant: 东南大学

    Abstract: 一种动态场景下基于语义分割与图像修复的视觉回环检测方法,包括以下步骤:1)在历史图像库中预训练的ORB特征离线词典;2)获取当前RGB图像作为当前帧,利用DANet语义分割网络分割出图像属于动态场景区域;3)利用图像修复网络对已经进行掩膜覆盖的图像进行图像修复;4)将所有历史数据库图像作为关键帧,用当前帧图像与所有关键帧图像逐一进行回环检测判断;5)根据两帧图像词袋向量的相似度和对极几何判断是否构成回环;6)进行判定。本发明可用于在动态作业环境下视觉SLAM中的回环检测,用于解决由于场景中存在作业人员、车辆、巡检机器人等动态目标而导致特征匹配错误以及由于对动态区域分割导致特征点过少而无法正确检测回环的情况。

    一种基于多模态信息感知的人体检测和跟踪方法

    公开(公告)号:CN111144207A

    公开(公告)日:2020-05-12

    申请号:CN201911146615.4

    申请日:2019-11-21

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于多模态信息感知的人体检测和跟踪方法,包括:彩色相机和深度相机标定与数据滤波处理;基于多模态信息感知的人体检测,分别在彩色图像和深度图像中检测人的身体和头部,依据头部和身体的空间比例信息融合两个检测结果;基于多模态信息感知的人体跟踪,使用核化相关滤波跟踪算法分别在彩色图像和深度图像中跟踪身体和头部,并建立跟踪对象的模型;利用跟踪对象模型和头身比的空间约束完善跟踪机制。本发明方法基于多模态信息感知,克服了仅基于视觉的目标检测和跟踪方法的缺陷,在室内服务机器人领域具有广泛的应用,有益于人机交互作业和用户跟随等功能。

    一种基于负载自适应辨识的工业机器人力矩补偿控制方法

    公开(公告)号:CN109514602A

    公开(公告)日:2019-03-26

    申请号:CN201811323903.8

    申请日:2018-11-08

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于负载自适应辨识的工业机器人力矩补偿控制方法,包括根据机器人整体的受力平衡分析,在考虑摩擦的基础上采用牛顿-欧拉法推导建立带负载工况下的机器人动力学模型;求解机器人负载辨识最优激励轨迹;计算负载惯性参数;在基于负载惯量匹配的基础上,补偿机器人带载工况下运动时负载所消耗的关节驱动力矩,并通过实验进一步验证和优化。本发明方法考虑了负载对机器人作业性能的影响,在无需任何外部传感器的前提下,通过简单易实现的操作完成了对任意负载的自适应辨识和力矩补偿控制,有效提高机器人带载工况下的控制精度,对于高速、大负载运动下的工业机器人搬运、搅拌摩擦焊等工艺具有十分重要的意义。

Patent Agency Ranking