-
公开(公告)号:CN106845502B
公开(公告)日:2020-07-07
申请号:CN201710050139.0
申请日:2017-01-23
Applicant: 东南大学
Abstract: 本发明提供了一种用于设备检修的穿戴式辅助装置及设备检修可视化指导方法,所述穿戴式辅助装置包括但不限于头戴式传感器支架、深度视觉传感器、佩戴式处理器、手持平板液晶显示器和后台服务器。所述可视化检修指导,能够为工人提供设备引导接近、设备状态识别、设备维修与装配可视化虚拟指导等关键辅助功能。本发明针对工人对待检修对象不熟练、装配操作步骤不熟悉的情况,能够协助工人,提高其工作效率和操作规范性和准确性。
-
公开(公告)号:CN106845502A
公开(公告)日:2017-06-13
申请号:CN201710050139.0
申请日:2017-01-23
Applicant: 东南大学
Abstract: 本发明提供了一种用于设备检修的穿戴式辅助装置及设备检修可视化指导方法,所述穿戴式辅助装置包括但不限于头戴式传感器支架、深度视觉传感器、佩戴式处理器、手持平板液晶显示器和后台服务器。所述可视化检修指导,能够为工人提供设备引导接近、设备状态识别、设备维修与装配可视化虚拟指导等关键辅助功能。本发明针对工人对待检修对象不熟练、装配操作步骤不熟悉的情况,能够协助工人,提高其工作效率和操作规范性和准确性。
-
公开(公告)号:CN110363815A
公开(公告)日:2019-10-22
申请号:CN201910368494.1
申请日:2019-05-05
Applicant: 东南大学
Abstract: 本发明公开了一种单视角点云下基于实例分割的机器人抓取检测方法,包括以下步骤:1)获取抓取场景图像和点云;2)利用Mask R-CNN及彩色图像与有序点云间的映射关系实现物体点云粗分割,再基于离群点滤波提纯目标点云;3)目标点云上均匀随机采样并建立局部标架,根据局部标架和平移搜索获得候选抓取位姿;4)抓取位姿编码,将候选抓取位姿编码成单通道抓取图像;5)构建以单通道抓取图像为输入、以位置敏感的全卷积神经网络为核心的抓取位姿稳定概率预测模型;6)利用仿真软件辅助生成模型训练样本并实现自动标注,从模型预测结果中优选出最终检测结果。本发明针对受限制复杂场景,提供一种RGB-D传感器单视角下的物体空间抓取位姿学习与检测方法,具备对未知、非规则物体新实例的泛化性能。
-
公开(公告)号:CN108510062A
公开(公告)日:2018-09-07
申请号:CN201810268775.5
申请日:2018-03-29
Applicant: 东南大学
Abstract: 本发明涉及一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法,首先构建位置-姿态由粗到细的级联式两阶段卷积神经网络模型,第一阶段采用基于区域的全卷积网络(R-FCN)实现抓取定位以及抓取角度的粗估计,第二阶段通过构造一种新的Angle-Net模型实现抓取角度精确计算;其次采集当前含待抓物体的场景图像作为待训练的原始现场图像样本,借助迁移学习机制对两阶段卷积神经网络模型进行训练,然后在线运行中将采集的每一帧单目彩色图像输入到级联式两阶段卷积神经网络模型,最后以所得抓取位置和姿态驱动机器人末端执行器进行物体抓取控制。本方法的抓取检测精度高,有效加快了机器人非规则物体抓取位姿的检测速度,提高了抓取姿态检测算法运行的实时性。
-
-
-