-
公开(公告)号:CN113927602B
公开(公告)日:2023-03-17
申请号:CN202111336249.6
申请日:2021-11-12
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/16
Abstract: 本发明涉及基于机器人的装配控制方法及系统,提供多个神经网络模型,所述多个神经网络模型至少包括强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述视觉设备的视觉数据、来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据。同时公开了一种基于机器人的装配控制系统,其包括:在机器人移动部分末端设置的夹持执行器及与机器人配套的视觉设备,所述夹持执行器的夹持内侧从内到外依次设置触觉传感器及软胶垫。本发明的系统利用触觉信号的变化来间接得到其他维度的外力信息,并将其与视觉信息相融合,表征向量能够用于生成合适的机器人动作指令,以及灵活调整插装力以完成装配。
-
公开(公告)号:CN115565243A
公开(公告)日:2023-01-03
申请号:CN202211167429.0
申请日:2022-09-23
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及应用于机器人装配技能学习的多模态演示方法及系统,应用于机器人装配运动规划,其中的方法包括:通过多模态数据采集装置采集目标物体及人手的装配轨迹和装配视频,并关联装配轨迹和装配视频,基于装配动作单元库,根据装配视频和装配轨迹,通过多模态融合的连续动作识别分割模型对目标物体的装配操作进行识别分割,以获得一系列连续的单个动作元,基于运动规划策略库,根据每个单个动作元所属类型,获得其对应的运动规划策略,以生成目标物体的整个装配操作的机器人装配运动规划。本发明通过融合装配视频和装配轨迹,进行单个动作元识别及对连续装配动作进行语义分割,可提高机器人装配成功率和效率。
-
公开(公告)号:CN113751981B
公开(公告)日:2022-08-19
申请号:CN202110957704.8
申请日:2021-08-19
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及基于双目视觉伺服的空间高精度装配方法和系统。其中的方法包括:触发左目和右目相机同时检测待装配零部件中的目标,从相机捕捉的图像中实时提取目标中当前特征点的像素坐标;基于特征点之间的直线约束,对任一相机所捕捉的不完整的目标,实施双目视野的三维重建;根据特征点的像素误差,通过图像雅可比矩阵建立特征点和相机速度的关系,获得基坐标系下目标的速度,并且在上臂和下臂机构之间进行自由度限制下的速度分配。其中系统包括配套的双目视觉系统和实施上述方法的计算机装置。本发明简化了双模块机器人的伺服装配控制难度,实现协同装配。另外,采用基于几何约束的三维重建方法估计缺失特征的位置,获得良好的装配识别效果。
-
公开(公告)号:CN113927602A
公开(公告)日:2022-01-14
申请号:CN202111336249.6
申请日:2021-11-12
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/16
Abstract: 本发明涉及基于机器人的装配控制方法及系统,提供多个神经网络模型,所述多个神经网络模型至少包括强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述视觉设备的视觉数据、来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据。同时公开了一种基于机器人的装配控制系统,其包括:在机器人移动部分末端设置的夹持执行器及与机器人配套的视觉设备,所述夹持执行器的夹持内侧从内到外依次设置触觉传感器及软胶垫。本发明的系统利用触觉信号的变化来间接得到其他维度的外力信息,并将其与视觉信息相融合,表征向量能够用于生成合适的机器人动作指令,以及灵活调整插装力以完成装配。
-
公开(公告)号:CN112743519A
公开(公告)日:2021-05-04
申请号:CN202011587214.5
申请日:2020-12-28
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/00
Abstract: 本发明涉及一种具有俯仰转动的空间三移动和一转动的四自由度并联机构,包括:支撑在框架组件的四个不同位置的四个驱动支链,每个驱动支链包括滑块和连杆组件,四个驱动支链的滑块都被设置成沿互相平行的直线方向运动,该连杆组件的第一端通过球面副与滑块连接;具有自转轴的动平台,该动平台分别与每个驱动支链的连杆组件的第二端通过球面副连接;其中,四个驱动支链包括第一驱动支链、与第一驱动支链相邻布置的第二驱动支链、与第一驱动支链相对布置的第三驱动支链和与第二驱动支链相对布置的第四驱动支链。本发明的机构能实现四自由度运动,且刚度大、结构紧凑、易于装配。
-
公开(公告)号:CN110561431A
公开(公告)日:2019-12-13
申请号:CN201910817859.4
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种用于离线示例学习的机器人装配演示轨迹提取方法,包括以下步骤:A、通过光学动作捕捉装置采集装配演示人员手臂及手部的演示运动轨迹;B、对采集的手臂及手部运动轨迹进行离线预处理,排除噪声数据和无关数据,融合多次演示装配轨迹,获得采用高斯混合模型建模的装配运动模型,并且为装配动作匹配夹具;C、根据所获得的装配轨迹及装配夹具信息,提供到机器人进行仿真装配验证。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。在本发明方案中,提取的装配轨迹能够被快速部署于不同的机器人等设备上,适用范围广。
-
公开(公告)号:CN113954076B
公开(公告)日:2023-01-13
申请号:CN202111336234.X
申请日:2021-11-12
Applicant: 哈尔滨工业大学(深圳)(CN)
Abstract: 本发明涉及一种基于跨模态预测装配场景的机器人装配的方法及系统,其中,在所述机器人末端的夹持执行器上设有触觉传感器,并且所述夹持执行器的装配区域被视觉设备拍摄:提供多个神经网络模型,所述神经网络模型包括多层感知机、强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述视觉设备的视觉数据、来自所述触觉传感器的触觉数据、来自机器人控制器的位姿数据、所述机器人的动作反馈数据和力矩反馈数据。本发明的多层感知机输出的预测视觉表征向量代替现有采用视觉设备收集实际真实图片的数据,使该系统发生譬如被夹持执行器遮挡视觉设备或者视觉设备出现虚焦等问题时,整个系统仍能完成精密装配步骤,增加系统的可靠性。
-
公开(公告)号:CN112621728B
公开(公告)日:2022-06-24
申请号:CN202011587203.7
申请日:2020-12-28
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/00
Abstract: 本发明涉及一种七自由度双模块并联协作机器人,包括:框架组件、三移动一转动并联机构、纯转动三自由度机构。三移动一转动并联机构包括:四个驱动支链,每个驱动支链包括滑块和连杆组件,滑块都被设置成沿互相平行的直线方向运动,连杆组件的一端通过球面副与滑块连接;分别与每个驱动支链的连杆组件另一端通过球面副连接的动平台。纯转动三自由度机构包括:纯转动平台;中心转动支链,该中心转动支链的上端通过万向联轴节与纯转动平台底部连接,其下端通过球面副与基座上安装的支柱连接;三个直线驱动支链,每个支链包括直线滑动件和推杆组件,该推杆组件的下端通过球面副与直线滑动件连接,其上端通过球面副与纯转动平台底部边缘连接。
-
公开(公告)号:CN113618367B
公开(公告)日:2022-05-03
申请号:CN202110957770.5
申请日:2021-08-19
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种基于七自由度并联双模块机器人的多视觉空间装配系统,包括:送料机构,其中,送料机构包括转动电机和与转动电机的输出轴连接的载物平台;设置在三移动一转动并联子机器人的动平台上的相机系统,相机系统包括用于装配环节的左单目相机和右单目相机,以及用于拾取环节的嵌入式相机,其中,这些相机的视野至少覆盖载物平台;与七自由度并联双模块机器人的运动驱动器、相机系统和转动电机连接的计算机装置。本发明针对双模块机器人的特性,提出了一套高精度、高灵活性的拾取和装配系统,在拾取和装配两个动作上分别配套视觉解决方案,减少最终的装配误差。
-
公开(公告)号:CN113878588A
公开(公告)日:2022-01-04
申请号:CN202111336206.8
申请日:2021-11-12
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/16
Abstract: 本发明涉及一种基于机器人的柔顺装配方法,其中,在所述机器人末端的夹持执行器上设有触觉传感器,所述方法包括以下步骤:提供张量融合网络模型,其中的训练数据包含来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据;通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过触觉传感器实时采集与所述装配区域对应的触觉数据。本发明公开的基于机器人的柔顺装配方法,系统中利通过因果卷积网络将触觉流降维,再与视觉设备收集的两种图像的表征向量通过张量融合网络模型融合,再将所得到的三维张量展平并输入由多层感知机组成的阻尼点预测器中,迅速判断装配件是否到达插口中的卡扣阻尼点。
-
-
-
-
-
-
-
-
-