一种单视角点云下基于实例分割的机器人抓取检测方法

    公开(公告)号:CN110363815A

    公开(公告)日:2019-10-22

    申请号:CN201910368494.1

    申请日:2019-05-05

    Applicant: 东南大学

    Abstract: 本发明公开了一种单视角点云下基于实例分割的机器人抓取检测方法,包括以下步骤:1)获取抓取场景图像和点云;2)利用Mask R-CNN及彩色图像与有序点云间的映射关系实现物体点云粗分割,再基于离群点滤波提纯目标点云;3)目标点云上均匀随机采样并建立局部标架,根据局部标架和平移搜索获得候选抓取位姿;4)抓取位姿编码,将候选抓取位姿编码成单通道抓取图像;5)构建以单通道抓取图像为输入、以位置敏感的全卷积神经网络为核心的抓取位姿稳定概率预测模型;6)利用仿真软件辅助生成模型训练样本并实现自动标注,从模型预测结果中优选出最终检测结果。本发明针对受限制复杂场景,提供一种RGB-D传感器单视角下的物体空间抓取位姿学习与检测方法,具备对未知、非规则物体新实例的泛化性能。

    一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法

    公开(公告)号:CN108510062A

    公开(公告)日:2018-09-07

    申请号:CN201810268775.5

    申请日:2018-03-29

    Applicant: 东南大学

    Abstract: 本发明涉及一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,首先构建位置-姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络(R-FCN)实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle-Net模型实现抓取角度精确计算;其次采集当前含待抓物体的场景图像作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,然后在线运行中将采集的每一帧单目彩色图像输入到级联式两阶段卷积神经网络模型,最后以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。本方法的抓取检测精度高,有效加快了机器人非规则物体抓取位姿的检测速度,提高了抓取姿态检测算法运行的实时性。

Patent Agency Ranking