-
公开(公告)号:CN113618367A
公开(公告)日:2021-11-09
申请号:CN202110957770.5
申请日:2021-08-19
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种基于七自由度并联双模块机器人的多视觉空间装配系统,包括:送料机构,其中,送料机构包括转动电机和与转动电机的输出轴连接的载物平台;设置在三移动一转动并联子机器人的动平台上的相机系统,相机系统包括用于装配环节的左单目相机和右单目相机,以及用于拾取环节的嵌入式相机,其中,这些相机的视野至少覆盖载物平台;与七自由度并联双模块机器人的运动驱动器、相机系统和转动电机连接的计算机装置。本发明针对双模块机器人的特性,提出了一套高精度、高灵活性的拾取和装配系统,在拾取和装配两个动作上分别配套视觉解决方案,减少最终的装配误差。
-
公开(公告)号:CN110561431B
公开(公告)日:2021-08-31
申请号:CN201910817859.4
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种用于离线示例学习的机器人装配演示轨迹提取方法,包括以下步骤:A、通过光学动作捕捉装置采集装配演示人员手臂及手部的演示运动轨迹;B、对采集的手臂及手部运动轨迹进行离线预处理,排除噪声数据和无关数据,融合多次演示装配轨迹,获得采用高斯混合模型建模的装配运动模型,并且为装配动作匹配夹具;C、根据所获得的装配轨迹及装配夹具信息,提供到机器人进行仿真装配验证。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。在本发明方案中,提取的装配轨迹能够被快速部署于不同的机器人等设备上,适用范围广。
-
公开(公告)号:CN112621728A
公开(公告)日:2021-04-09
申请号:CN202011587203.7
申请日:2020-12-28
Applicant: 哈尔滨工业大学(深圳)
IPC: B25J9/00
Abstract: 本发明涉及一种七自由度双模块并联协作机器人,包括:框架组件、三移动一转动并联机构、纯转动三自由度机构。三移动一转动并联机构包括:四个驱动支链,每个驱动支链包括滑块和连杆组件,滑块都被设置成沿互相平行的直线方向运动,连杆组件的一端通过球面副与滑块连接;分别与每个驱动支链的连杆组件另一端通过球面副连接的动平台。纯转动三自由度机构包括:纯转动平台;中心转动支链,该中心转动支链的上端通过万向联轴节与纯转动平台底部连接,其下端通过球面副与基座上安装的支柱连接;三个直线驱动支链,每个支链包括直线滑动件和推杆组件,该推杆组件的下端通过球面副与直线滑动件连接,其上端通过球面副与纯转动平台底部边缘连接。
-
公开(公告)号:CN110355788B
公开(公告)日:2024-05-14
申请号:CN201910673549.X
申请日:2019-07-24
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种移动操作机器人大尺寸空间高精度在线标定系统,其包括测量子系统和校准补偿子系统。测量子系统包括视场覆盖该移动操作机器人的工作空间的多视角测量设备、至少一组局部测量设备和设置在所述移动平台上的车载激光测微设备,校准补偿子系统包括移动操作机器人控制器、与所述测量子系统连接的通信模块和校准工作站。多视角测量设备包括红外相机、与红外相机连接的图像采集工作站和与移动平台关联的反光靶球。每个局部测量设备包括CCD相机和多个激光测距传感器。与传统移动式机器人的标定校准相比,本发明的方案有全自动、大空间、在线校准的优势;同时还提高操作灵活性,降低成本,有效提升了移动操作机器人系统的实用价值。
-
公开(公告)号:CN110634161B
公开(公告)日:2023-05-05
申请号:CN201910816249.2
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
IPC: G06T7/73
Abstract: 本发明公开一种基于点云的工件位姿估计方法,主要用以解决自动化装配领域,特别是小部件装配领域的工件位姿估计问题。该方法分为点云数据预处理、点云虚拟视图提取和位姿估计,其中位姿估计步骤还包括:基于迭代最近点算法的动态模型,采用粒子滤波算法进行迭代运算,如果达到迭代停止条件,则将有效粒子的位姿以加权均值的方式输出,然后通过求逆运算,计算所述的目标工件相对于相机坐标系下的位姿。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。
-
公开(公告)号:CN113954076A
公开(公告)日:2022-01-21
申请号:CN202111336234.X
申请日:2021-11-12
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种基于跨模态预测装配场景的机器人装配的方法及系统,其中,在所述机器人末端的夹持执行器上设有触觉传感器,并且所述夹持执行器的装配区域被视觉设备拍摄:提供多个神经网络模型,所述神经网络模型包括多层感知机、强化学习网络模型和张量融合网络模型,其中的训练数据包含来自所述视觉设备的视觉数据、来自所述触觉传感器的触觉数据、来自机器人控制器的位姿数据、所述机器人的动作反馈数据和力矩反馈数据。本发明的多层感知机输出的预测视觉表征向量代替现有采用视觉设备收集实际真实图片的数据,使该系统发生譬如被夹持执行器遮挡视觉设备或者视觉设备出现虚焦等问题时,整个系统仍能完成精密装配步骤,增加系统的可靠性。
-
公开(公告)号:CN113751981A
公开(公告)日:2021-12-07
申请号:CN202110957704.8
申请日:2021-08-19
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及基于双目视觉伺服的空间高精度装配方法和系统。其中的方法包括:触发左目和右目相机同时检测待装配零部件中的目标,从相机捕捉的图像中实时提取目标中当前特征点的像素坐标;基于特征点之间的直线约束,对任一相机所捕捉的不完整的目标,实施双目视野的三维重建;根据特征点的像素误差,通过图像雅可比矩阵建立特征点和相机速度的关系,获得基坐标系下目标的速度,并且在上臂和下臂机构之间进行自由度限制下的速度分配。其中系统包括配套的双目视觉系统和实施上述方法的计算机装置。本发明简化了双模块机器人的伺服装配控制难度,实现协同装配。另外,采用基于几何约束的三维重建方法估计缺失特征的位置,获得良好的装配识别效果。
-
公开(公告)号:CN110561450B
公开(公告)日:2021-09-07
申请号:CN201910816236.5
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及一种机器人装配离线示例学习系统和方法,其利用光学动捕装置采集用户进行人工精密装配时手部的动作数据,离线进行装配轨迹合成,然后指导机器人完成精密装配动作的示例学习系统和方法。本发明的方案基于熟练操作工人手臂及手部的装配动作数据进行离线处理,还对提取的数据进行异常排除并且进行适用于实际机器人系统的轨迹优化,使得到的高精度示例学习运动轨迹具有极佳的可迁移性。
-
公开(公告)号:CN110634161A
公开(公告)日:2019-12-31
申请号:CN201910816249.2
申请日:2019-08-30
Applicant: 哈尔滨工业大学(深圳)
IPC: G06T7/73
Abstract: 本发明公开一种基于点云的工件位姿估计方法,主要用以解决自动化装配领域,特别是小部件装配领域的工件位姿估计问题。该方法分为点云数据预处理、点云虚拟视图提取和位姿估计,其中位姿估计步骤还包括:基于迭代最近点算法的动态模型,采用粒子滤波算法进行迭代运算,如果达到迭代停止条件,则将有效粒子的位姿以加权均值的方式输出,然后通过求逆运算,计算所述的目标工件相对于相机坐标系下的位姿。本发明还涉及一种装置,其包括存储器和处理器,当所述处理器执行存储器中储存的程序时实现上述方法步骤。
-
公开(公告)号:CN112651944B
公开(公告)日:2023-08-22
申请号:CN202011584651.1
申请日:2020-12-28
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明涉及图像识别技术领域,公开了基于CAD模型的3C部件高精度六维位姿估计方法。其中方法包括:分割包含有目标物体的场景点云,生成第一点云,基于所述目标物体的CAD模型,对所述第一点云进行体素网格下采样,生成第二点云;对所述第二点云提取第三点云,通过主成分分析技术、模板匹配算法结合奇异位姿消除策略完成对所述目标物体的初始位姿估计,基于所述初始位姿估计,通过分支定界算法剔除不符合预定规则的子空间,结合改进的迭代最近点算法完成局部位姿估计。其中系统包括应用程序,用于实施上述方法。本发明至少具有以下有益效果:能够有效消除因装配目标高对称性特性导致的奇异位姿和估计精度不足的问题。
-
-
-
-
-
-
-
-
-