-
公开(公告)号:CN114918918B
公开(公告)日:2023-07-25
申请号:CN202210581185.4
申请日:2022-05-26
Applicant: 东南大学
IPC: B25J9/16
Abstract: 本发明涉及机器人抓取操作领域,公开一种含领域自适应的机器人乱序目标推抓方法,包括以下步骤:1)搭建与真实场景相似的仿真环境,训练推‑抓操作协同策略的深度强化学习模型;2)分别在真实环境和仿真环境中采集样本,进行相应预处理构成用于训练图像迁移网络的数据集;3)构建基于多级注意力聚合及一致性约束的双向域对抗迁移网络,在所采集的非配对图像数据集上进行训练,实现将实物图像迁移为伪仿真图像并且迁移效果满足机器人推‑抓场景中的任务一致性;4)将解耦训练的图像迁移模块和机器人操作技能模型进行级联部署,实现机器人对现实环境中物体的乱序推散和抓取。本发明可用于基于RGB‑D相机的机器人乱序目标抓推协同策略迁移学习问题。
-
公开(公告)号:CN112489117B
公开(公告)日:2022-11-18
申请号:CN202011418811.5
申请日:2020-12-07
Applicant: 东南大学
IPC: G06T7/70
Abstract: 本发明公开了一种单视角点云下基于域迁移的机器人抓取位姿检测方法,包括以下步骤:1)通过深度相机获取机器人抓取场景的单视角点云;2)对采集到的点云进行预处理;3)在目标点云上进行均匀随机采样并计算局部标架,获取候选抓取位姿;4)以夹持器中心定义新的坐标系,将抓取位姿编码成多通道投影图像;5)构建以多通道抓取图像作为输入,基于生成对抗网络实现从仿真域到实物域无监督域自适应迁移的抓取位姿评价模型;6)构建大尺度仿真物体数据集,并构建实物数据集,对拓抓取检测的方法进行自动标注,形成训练集和测试集。本发明通过无监督域迁移的方式来缓解数据采集与标注的成本,该方法具有对未知、非规则物体的泛化性能。
-
公开(公告)号:CN112489117A
公开(公告)日:2021-03-12
申请号:CN202011418811.5
申请日:2020-12-07
Applicant: 东南大学
IPC: G06T7/70
Abstract: 本发明公开了一种单视角点云下基于域迁移的机器人抓取位姿检测方法,包括以下步骤:1)通过深度相机获取机器人抓取场景的单视角点云;2)对采集到的点云进行预处理;3)在目标点云上进行均匀随机采样并计算局部标架,获取候选抓取位姿;4)以夹持器中心定义新的坐标系,将抓取位姿编码成多通道投影图像;5)构建以多通道抓取图像作为输入,基于生成对抗网络实现从仿真域到实物域无监督域自适应迁移的抓取位姿评价模型;6)构建大尺度仿真物体数据集,并构建实物数据集,对拓抓取检测的方法进行自动标注,形成训练集和测试集。本发明通过无监督域迁移的方式来缓解数据采集与标注的成本,该方法具有对未知、非规则物体的泛化性能。
-
公开(公告)号:CN110363815A
公开(公告)日:2019-10-22
申请号:CN201910368494.1
申请日:2019-05-05
Applicant: 东南大学
Abstract: 本发明公开了一种单视角点云下基于实例分割的机器人抓取检测方法,包括以下步骤:1)获取抓取场景图像和点云;2)利用Mask R-CNN及彩色图像与有序点云间的映射关系实现物体点云粗分割,再基于离群点滤波提纯目标点云;3)目标点云上均匀随机采样并建立局部标架,根据局部标架和平移搜索获得候选抓取位姿;4)抓取位姿编码,将候选抓取位姿编码成单通道抓取图像;5)构建以单通道抓取图像为输入、以位置敏感的全卷积神经网络为核心的抓取位姿稳定概率预测模型;6)利用仿真软件辅助生成模型训练样本并实现自动标注,从模型预测结果中优选出最终检测结果。本发明针对受限制复杂场景,提供一种RGB-D传感器单视角下的物体空间抓取位姿学习与检测方法,具备对未知、非规则物体新实例的泛化性能。
-
公开(公告)号:CN114918918A
公开(公告)日:2022-08-19
申请号:CN202210581185.4
申请日:2022-05-26
Applicant: 东南大学
IPC: B25J9/16
Abstract: 本发明涉及机器人抓取操作领域,公开一种含领域自适应的机器人乱序目标推抓方法,包括以下步骤:1)搭建与真实场景相似的仿真环境,训练推‑抓操作协同策略的深度强化学习模型;2)分别在真实环境和仿真环境中采集样本,进行相应预处理构成用于训练图像迁移网络的数据集;3)构建基于多级注意力聚合及一致性约束的双向域对抗迁移网络,在所采集的非配对图像数据集上进行训练,实现将实物图像迁移为伪仿真图像并且迁移效果满足机器人推‑抓场景中的任务一致性;4)将解耦训练的图像迁移模块和机器人操作技能模型进行级联部署,实现机器人对现实环境中物体的乱序推散和抓取。本发明可用于基于RGB‑D相机的机器人乱序目标抓推协同策略迁移学习问题。
-
公开(公告)号:CN113297988A
公开(公告)日:2021-08-24
申请号:CN202110592716.5
申请日:2021-05-28
Applicant: 东南大学
Abstract: 本发明公开了一种基于域迁移和深度补全的物体姿态估计方法,包括以下步骤:1)针对实验场景采集物体姿态估计真实数据集,利用仿真生成器生成物体姿态估计仿真数据集;2)基于领域自适应技术实现仿真数据到真实数据的迁移;3)利用迁移后的物体姿态估计数据集,训练基于感知融合的物体姿态估计网络;4)通过深度相机获取场景的颜色和深度信息,并补全深度信息;5)给定场景中的颜色图和补全后深度图,利用物体姿态估计训练结果,进行目标物体的姿态估计。本发明针对实物域制作数据集困难、深度相机获取深度信息失真等问题,通过域迁移来缓解数据采集与标注成本,使用深度补全来改善深度信息的质量,该方法具有对未知、复杂场景的泛化性能。
-
公开(公告)号:CN109949317B
公开(公告)日:2020-12-11
申请号:CN201910168475.4
申请日:2019-03-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于逐步对抗学习的半监督图像实例分割方法,包括步骤:1、构建Mask R‑CNN实例分割模型;2、基于DCGAN训练Mask R‑CNN中的FPN;3、采用标注数据对Mask R‑CNN中的其他模块进行初步训练;4、构建判别卷积网络,与Mask R‑CNN构成对抗学习网络,通过对抗训练,优化对抗学习网络的参数;5、将判别卷积网络的输出反馈至Mask R‑CNN,对实例分割模型进行再训练;6、利用实例分割模型对待分割图像进行分割。该方法利用仅有部分标注图像的样本集进行模型训练,减少了处理样本的工作量,且能够获得较高精确度的分割模型。
-
公开(公告)号:CN113297988B
公开(公告)日:2024-03-22
申请号:CN202110592716.5
申请日:2021-05-28
Applicant: 东南大学
IPC: G06V10/774 , G06V20/10 , G06V10/82 , G06N3/0464 , G06T7/13 , G06T7/50 , G06T7/90
Abstract: 本发明公开了一种基于域迁移和深度补全的物体姿态估计方法,包括以下步骤:1)针对实验场景采集物体姿态估计真实数据集,利用仿真生成器生成物体姿态估计仿真数据集;2)基于领域自适应技术实现仿真数据到真实数据的迁移;3)利用迁移后的物体姿态估计数据集,训练基于感知融合的物体姿态估计网络;4)通过深度相机获取场景的颜色和深度信息,并补全深度信息;5)给定场景中的颜色图和补全后深度图,利用物体姿态估计训练结果,进行目标物体的姿态估计。本发明针对实物域制作数据集困难、深度相机获取深度信息失真等问题,通过域迁移来缓解数据采集与标注成本,使用深度补全来改善深度信息的质量,该方法具有对未知、复杂场景的泛化性能。
-
公开(公告)号:CN109949317A
公开(公告)日:2019-06-28
申请号:CN201910168475.4
申请日:2019-03-06
Applicant: 东南大学
Abstract: 本发明公开了一种基于逐步对抗学习的半监督图像实例分割方法,包括步骤:1、构建Mask R-CNN实例分割模型;2、基于DCGAN训练Mask R-CNN中的FPN;3、采用标注数据对Mask R-CNN中的其他模块进行初步训练;4、构建判别卷积网络,与Mask R-CNN构成对抗学习网络,通过对抗训练,优化对抗学习网络的参数;5、将判别卷积网络的输出反馈至Mask R-CNN,对实例分割模型进行再训练;6、利用实例分割模型对待分割图像进行分割。该方法利用仅有部分标注图像的样本集进行模型训练,减少了处理样本的工作量,且能够获得较高精确度的分割模型。
-
-
-
-
-
-
-
-