-
公开(公告)号:CN110561431B
公开(公告)日:2021-08-31
申请号:CN201910817859.4
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种用于离线示例学习的机器人装配演示轨迹提取方法,包括以下步骤:A、通过光学动作捕捉装置采集装配演示人员手臂及手部的演示运动轨迹;B、对采集的手臂及手部运动轨迹进行离线预处理,排除噪声数据和无关数据,融合多次演示装配轨迹,获得采用高斯混合模型建模的装配运动模型,并且为装配动作匹配夹具;C、根据所获得的装配轨迹及装配夹具信息,提供到机器人进行仿真装配验证。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。在本发明方案中,提取的装配轨迹能够被快速部署于不同的机器人等设备上,适用范围广。
-
公开(公告)号:CN115494804B
公开(公告)日:2025-04-25
申请号:CN202211170910.5
申请日:2022-09-23
Applicant: 哈尔滨工业大学(深圳)
IPC: G05B19/418
Abstract: 本发明涉及基于机器人装配学习的多模态数据采集方法、系统及装置,应用于机器人装配运动规划,其中的方法包括:通过多模态数据采集装置采集目标物体及人手的装配轨迹和装配视频,并关联装配轨迹和装配视频,基于装配动作单元库,根据装配视频和装配轨迹,通过多模态融合的连续动作识别分割模型对目标物体的装配操作进行识别分割,以获得一系列连续的单个动作元,基于运动规划策略库,根据每个单个动作元所属类型,获得其对应的运动规划策略,以生成目标物体的整个装配操作的机器人装配运动规划。本发明通过融合装配视频和装配轨迹,进行单个动作元识别及对连续装配动作进行语义分割,可提高机器人装配成功率和效率。
-
公开(公告)号:CN115494804A
公开(公告)日:2022-12-20
申请号:CN202211170910.5
申请日:2022-09-23
Applicant: 哈尔滨工业大学(深圳)
IPC: G05B19/418
Abstract: 本发明涉及基于机器人装配学习的多模态数据采集方法、系统及装置,应用于机器人装配运动规划,其中的方法包括:通过多模态数据采集装置采集目标物体及人手的装配轨迹和装配视频,并关联装配轨迹和装配视频,基于装配动作单元库,根据装配视频和装配轨迹,通过多模态融合的连续动作识别分割模型对目标物体的装配操作进行识别分割,以获得一系列连续的单个动作元,基于运动规划策略库,根据每个单个动作元所属类型,获得其对应的运动规划策略,以生成目标物体的整个装配操作的机器人装配运动规划。本发明通过融合装配视频和装配轨迹,进行单个动作元识别及对连续装配动作进行语义分割,可提高机器人装配成功率和效率。
-
公开(公告)号:CN110561450B
公开(公告)日:2021-09-07
申请号:CN201910816236.5
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种机器人装配离线示例学习系统和方法,其利用光学动捕装置采集用户进行人工精密装配时手部的动作数据,离线进行装配轨迹合成,然后指导机器人完成精密装配动作的示例学习系统和方法。本发明的方案基于熟练操作工人手臂及手部的装配动作数据进行离线处理,还对提取的数据进行异常排除并且进行适用于实际机器人系统的轨迹优化,使得到的高精度示例学习运动轨迹具有极佳的可迁移性。
-
公开(公告)号:CN110561430B
公开(公告)日:2021-08-10
申请号:CN201910816232.7
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/16
Abstract: 本发明涉及一种用于离线示例学习的机器人装配轨迹优化方法,所述方法包括以下步骤:A、通过光学动作捕捉装置采集装配演示人员手臂及手部的演示运动轨迹;B、对采集的手臂及手部运动轨迹进行离线预处理,排除噪声数据和无关数据,融合多次演示装配轨迹,获得由高斯混合模型建模的装配运动模型;C、根据获得的装配运动模型,以及机器人装配实际的零部件初始位姿及目标位姿,生成机器人装配运动轨迹。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。本发明解决传统演示轨迹不利于机器人直接执行的缺点,提高了利用离线示例学习技术使机器人进行精密装配的效率。
-
公开(公告)号:CN110561450A
公开(公告)日:2019-12-13
申请号:CN201910816236.5
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种机器人装配离线示例学习系统和方法,其利用光学动捕装置采集用户进行人工精密装配时手部的动作数据,离线进行装配轨迹合成,然后指导机器人完成精密装配动作的示例学习系统和方法。本发明的方案基于熟练操作工人手臂及手部的装配动作数据进行离线处理,还对提取的数据进行异常排除并且进行适用于实际机器人系统的轨迹优化,使得到的高精度示例学习运动轨迹具有极佳的可迁移性。
-
公开(公告)号:CN110561430A
公开(公告)日:2019-12-13
申请号:CN201910816232.7
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/16
Abstract: 本发明涉及一种用于离线示例学习的机器人装配轨迹优化方法,所述方法包括以下步骤:A、通过光学动作捕捉装置采集装配演示人员手臂及手部的演示运动轨迹;B、对采集的手臂及手部运动轨迹进行离线预处理,排除噪声数据和无关数据,融合多次演示装配轨迹,获得由高斯混合模型建模的装配运动模型;C、根据获得的装配运动模型,以及机器人装配实际的零部件初始位姿及目标位姿,生成机器人装配运动轨迹。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。本发明解决传统演示轨迹不利于机器人直接执行的缺点,提高了利用离线示例学习技术使机器人进行精密装配的效率。
-
公开(公告)号:CN115565243A
公开(公告)日:2023-01-03
申请号:CN202211167429.0
申请日:2022-09-23
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及应用于机器人装配技能学习的多模态演示方法及系统,应用于机器人装配运动规划,其中的方法包括:通过多模态数据采集装置采集目标物体及人手的装配轨迹和装配视频,并关联装配轨迹和装配视频,基于装配动作单元库,根据装配视频和装配轨迹,通过多模态融合的连续动作识别分割模型对目标物体的装配操作进行识别分割,以获得一系列连续的单个动作元,基于运动规划策略库,根据每个单个动作元所属类型,获得其对应的运动规划策略,以生成目标物体的整个装配操作的机器人装配运动规划。本发明通过融合装配视频和装配轨迹,进行单个动作元识别及对连续装配动作进行语义分割,可提高机器人装配成功率和效率。
-
公开(公告)号:CN110561431A
公开(公告)日:2019-12-13
申请号:CN201910817859.4
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种用于离线示例学习的机器人装配演示轨迹提取方法,包括以下步骤:A、通过光学动作捕捉装置采集装配演示人员手臂及手部的演示运动轨迹;B、对采集的手臂及手部运动轨迹进行离线预处理,排除噪声数据和无关数据,融合多次演示装配轨迹,获得采用高斯混合模型建模的装配运动模型,并且为装配动作匹配夹具;C、根据所获得的装配轨迹及装配夹具信息,提供到机器人进行仿真装配验证。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。在本发明方案中,提取的装配轨迹能够被快速部署于不同的机器人等设备上,适用范围广。
-
-
-
-
-
-
-
-