基于多2D视觉的零部件高精度三维位姿估计方法及系统

    公开(公告)号:CN111612794B

    公开(公告)日:2024-07-19

    申请号:CN202010295181.0

    申请日:2020-04-15

    Abstract: 本发明涉及一种基于多2D视觉的零部件高精度三维位姿估计方法及系统。其中的方法包括单个2D视觉采集装置工件位姿估计和多视觉采集装置优势参数融合。单个2D视觉采集装置工件位姿估计,主要是将获取的工件图像进行处理获取初步特征点作为精提取输入;并对特征点进行亚像素化,通过PnP算法,获得单视觉采集装置的工件位姿。多视觉采集装置优势参数融合部分,基于多视场标定技术获得各个视觉采集装置的位姿关系,再通过单视觉采集装置的优势参数,将各个精度较高参数进行融合。其中的系统至少包括用于实施上述方法的计算机装置。本发明可以在计算量较小、计算时间较少的情况下搜索工件的位姿,具有更高的精度和实用性。

    基于多2D视觉的零部件高精度三维位姿估计方法及系统

    公开(公告)号:CN111612794A

    公开(公告)日:2020-09-01

    申请号:CN202010295181.0

    申请日:2020-04-15

    Abstract: 本发明涉及一种基于多2D视觉的零部件高精度三维位姿估计方法及系统。其中的方法包括单个2D视觉采集装置工件位姿估计和多视觉采集装置优势参数融合。单个2D视觉采集装置工件位姿估计,主要是将获取的工件图像进行处理获取初步特征点作为精提取输入;并对特征点进行亚像素化,通过PnP算法,获得单视觉采集装置的工件位姿。多视觉采集装置优势参数融合部分,基于多视场标定技术获得各个视觉采集装置的位姿关系,再通过单视觉采集装置的优势参数,将各个精度较高参数进行融合。其中的系统至少包括用于实施上述方法的计算机装置。本发明可以在计算量较小、计算时间较少的情况下搜索工件的位姿,具有更高的精度和实用性。

    面向3C装配的双模块协作机器人协调装配系统及规划方法

    公开(公告)号:CN111522305A

    公开(公告)日:2020-08-11

    申请号:CN202010295169.X

    申请日:2020-04-15

    Abstract: 本发明涉及面向3C装配的双模块协作机器人协调装配系统及规划方法。其中的系统包括支撑柜和双模块协作机器人。所述的双模块协作机器人包括下半部分的3‑PSS/S三自由度纯转动机构和上半部分的六自由度并联机构。其中的方法包括步骤:通过激光跟踪仪对所述的双模块协作机器人进行基坐标系标定,确定机器人的基坐标在统一世界坐标系下的位姿转换关系;基于各个阶段不同的协调运动要求和任务目标,分别规划所述两个阶段中的双模块协作机器人的运动轨迹;将上述两个阶段的机器人运动轨迹整合,将双模块协作机器人实施的装配时间与关节平均脉冲的关联作为多目标优化函数,利用QPSO算法对双模块协作机器人的运动轨迹进行优化,使机器人关节运动轨迹高阶连续。

    基于截断总体最小二乘正则化的机器人运动学标定方法

    公开(公告)号:CN116810786A

    公开(公告)日:2023-09-29

    申请号:CN202310870670.8

    申请日:2023-07-17

    Abstract: 本发明涉及基于截断总体最小二乘正则化的机器人运动学标定方法,并联机器人设置有数据采集系统,包括移动平台、基座、支链和直线电机。其中的方法包括:获取并联机器人的运动学参数,输入到逆运动学参数误差模型,获得坐标系之间的转换误差,以及运动学参数误差之间的映射关系,获取数据采集系统的测量数据,以及坐标系之间的转换关系,使测量数据统一在基座坐标系下,通过截断总体最小二乘正则化方法辨识参数误差,进行截断因子的最优选择,获得最佳正则化参数,根据辨识出的参数误差进行补偿,以更新控制器运动学参数。本发明设计一套完整的面向大多数并联机器人的低成本、成熟标定方案,可提高并联机器人的运动学标定精度。

    面向3C装配的双模块协作机器人协调装配系统及规划方法

    公开(公告)号:CN111522305B

    公开(公告)日:2021-03-30

    申请号:CN202010295169.X

    申请日:2020-04-15

    Abstract: 本发明涉及面向3C装配的双模块协作机器人协调装配系统及规划方法。其中的系统包括支撑柜和双模块协作机器人。所述的双模块协作机器人包括下半部分的3‑PSS/S三自由度纯转动机构和上半部分的六自由度并联机构。其中的方法包括步骤:通过激光跟踪仪对所述的双模块协作机器人进行基坐标系标定,确定机器人的基坐标在统一世界坐标系下的位姿转换关系;基于各个阶段不同的协调运动要求和任务目标,分别规划所述两个阶段中的双模块协作机器人的运动轨迹;将上述两个阶段的机器人运动轨迹整合,将双模块协作机器人实施的装配时间与关节平均脉冲的关联作为多目标优化函数,利用QPSO算法对双模块协作机器人的运动轨迹进行优化,使机器人关节运动轨迹高阶连续。

    基于机器人装配学习的多模态数据采集方法、系统及装置

    公开(公告)号:CN115494804B

    公开(公告)日:2025-04-25

    申请号:CN202211170910.5

    申请日:2022-09-23

    Abstract: 本发明涉及基于机器人装配学习的多模态数据采集方法、系统及装置,应用于机器人装配运动规划,其中的方法包括:通过多模态数据采集装置采集目标物体及人手的装配轨迹和装配视频,并关联装配轨迹和装配视频,基于装配动作单元库,根据装配视频和装配轨迹,通过多模态融合的连续动作识别分割模型对目标物体的装配操作进行识别分割,以获得一系列连续的单个动作元,基于运动规划策略库,根据每个单个动作元所属类型,获得其对应的运动规划策略,以生成目标物体的整个装配操作的机器人装配运动规划。本发明通过融合装配视频和装配轨迹,进行单个动作元识别及对连续装配动作进行语义分割,可提高机器人装配成功率和效率。

    基于机器人装配学习的多模态数据采集方法、系统及装置

    公开(公告)号:CN115494804A

    公开(公告)日:2022-12-20

    申请号:CN202211170910.5

    申请日:2022-09-23

    Abstract: 本发明涉及基于机器人装配学习的多模态数据采集方法、系统及装置,应用于机器人装配运动规划,其中的方法包括:通过多模态数据采集装置采集目标物体及人手的装配轨迹和装配视频,并关联装配轨迹和装配视频,基于装配动作单元库,根据装配视频和装配轨迹,通过多模态融合的连续动作识别分割模型对目标物体的装配操作进行识别分割,以获得一系列连续的单个动作元,基于运动规划策略库,根据每个单个动作元所属类型,获得其对应的运动规划策略,以生成目标物体的整个装配操作的机器人装配运动规划。本发明通过融合装配视频和装配轨迹,进行单个动作元识别及对连续装配动作进行语义分割,可提高机器人装配成功率和效率。

    具有俯仰转动的空间三移动和一转动的四自由度并联机构

    公开(公告)号:CN112743519B

    公开(公告)日:2022-06-24

    申请号:CN202011587214.5

    申请日:2020-12-28

    Abstract: 本发明涉及一种具有俯仰转动的空间三移动和一转动的四自由度并联机构,包括:支撑在框架组件的四个不同位置的四个驱动支链,每个驱动支链包括滑块和连杆组件,四个驱动支链的滑块都被设置成沿互相平行的直线方向运动,该连杆组件的第一端通过球面副与滑块连接;具有自转轴的动平台,该动平台分别与每个驱动支链的连杆组件的第二端通过球面副连接;其中,四个驱动支链包括第一驱动支链、与第一驱动支链相邻布置的第二驱动支链、与第一驱动支链相对布置的第三驱动支链和与第二驱动支链相对布置的第四驱动支链。本发明的机构能实现四自由度运动,且刚度大、结构紧凑、易于装配。

    基于CAD模型的3C部件高精度六维位姿估计方法及系统

    公开(公告)号:CN112651944A

    公开(公告)日:2021-04-13

    申请号:CN202011584651.1

    申请日:2020-12-28

    Abstract: 本发明涉及图像识别技术领域,公开了基于CAD模型的3C部件高精度六维位姿估计方法。其中方法包括:分割包含有目标物体的场景点云,生成第一点云,基于所述目标物体的CAD模型,对所述第一点云进行体素网格下采样,生成第二点云;对所述第二点云提取第三点云,通过主成分分析技术、模板匹配算法结合奇异位姿消除策略完成对所述目标物体的初始位姿估计,基于所述初始位姿估计,通过分支定界算法剔除不符合预定规则的子空间,结合改进的迭代最近点算法完成局部位姿估计。其中系统包括应用程序,用于实施上述方法。本发明至少具有以下有益效果:能够有效消除因装配目标高对称性特性导致的奇异位姿和估计精度不足的问题。

    面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法

    公开(公告)号:CN113878588B

    公开(公告)日:2023-03-31

    申请号:CN202111336206.8

    申请日:2021-11-12

    Abstract: 本发明涉及一种基于机器人的柔顺装配方法,其中,在所述机器人末端的夹持执行器上设有触觉传感器,所述方法包括以下步骤:提供张量融合网络模型,其中的训练数据包含来自所述触觉传感器的触觉数据、所述机器人的动作反馈数据和力矩反馈数据;通过机器人控制器带动所述夹持执行器从装配初始点开始装配动作,然后通过触觉传感器实时采集与所述装配区域对应的触觉数据。本发明公开的基于机器人的柔顺装配方法,系统中利通过因果卷积网络将触觉流降维,再与视觉设备收集的两种图像的表征向量通过张量融合网络模型融合,再将所得到的三维张量展平并输入由多层感知机组成的阻尼点预测器中,迅速判断装配件是否到达插口中的卡扣阻尼点。

Patent Agency Ranking