一种机器人自标定方法
    1.
    发明授权

    公开(公告)号:CN108406771B

    公开(公告)日:2021-03-16

    申请号:CN201810196264.7

    申请日:2018-03-09

    Applicant: 江南大学

    Abstract: 本发明公开了一种机器人自标定方法,包括以下步骤:(1)建立机器人运动学模型;(2)建立机器人末端位置误差模型;(3)建立平面约束误差模型;(4)驱动机器人对约束平面分别进行测量;(5)机器人运动学参数辨识;(6)标定结果验证。本发明的有益效果:一是成本较低,仅需要一块平面精度较高的标定块即可,不超过千元,而先进的测量设备往往要几十万甚至上百万;二是能够得到平面准确的空间方程,相对于传统的平面约束标定方法,提高了标定精度;三是相对于传统的平面约束误差模型,大大简化了误差模型;四是标定块能够任意姿态摆放在机器人的工作空间内,降低标定实验的难度。

    新型多功能组合桌椅
    2.
    发明公开

    公开(公告)号:CN105286299A

    公开(公告)日:2016-02-03

    申请号:CN201410234406.6

    申请日:2014-05-27

    Applicant: 江南大学

    Abstract: 本发明提供一种新型多功能组合桌椅,包括桌面、桌面上的角度调节装置,桌子高度调节装置,桌椅间距调节装置及座椅、座椅靠背角度调节装置。其特点是:所述的桌面由上板和下板组成,两板通过合页连接在一起。所述的角度调节装置由棘条、棘爪、压板组成。所述的桌子高度调节装置由直角支架、内筒、外筒、内筒夹组成。所述的桌椅间距调节装置由滑动导轨以及滑块组成。所述的座椅由座椅腿、支撑梁、支撑条、木板、座椅面、调角器、座椅靠背组成。整个新型多功能组合桌椅使用过程中不用电、不需借助任何工具,徒手操作便可完成,且使用安全可靠。

    一种基于机器视觉的钢桶螺纹盖位姿识别方法

    公开(公告)号:CN108416809A

    公开(公告)日:2018-08-17

    申请号:CN201810195723.X

    申请日:2018-03-09

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于机器视觉的钢桶螺纹盖位姿识别方法,包括,利用相机采集放置于传送带上的钢桶螺纹盖的俯视图,并对图像进行预处理,得到钢桶螺纹盖单像素外轮廓曲线,通过圆的垂径定理,利用逐点扫描的方式得到钢桶螺纹盖的中心坐标即抓取点的位置;再提取钢桶螺纹盖的内部的直线特征,求出直线在图像像素坐标系下的斜率,利用反三角函数得出钢桶螺纹盖的摆放角度。相对于目前绝大多数的国内企业仍采用传统的示教再现方法,本发明提出的算法不需要在传动带上添加辅助定位机构,设备和流水线简单,减小了流水线的故障发生率,提高了流水线的生产效率。

    一种基于双平面约束误差模型的机器人自标定方法

    公开(公告)号:CN107369167A

    公开(公告)日:2017-11-21

    申请号:CN201710595019.9

    申请日:2017-07-20

    Applicant: 江南大学

    Abstract: 本发明涉及一种基于双平面约束误差模型的机器人自标定方法,用于获取机器人真实的连杆参数。首先建立D-H法与MD-H法相结合的机器人运动学模型;其次建立机器人末端位置误差模型;然后建立机器人双平面约束误差模型,该模型与两个面(相互平行或垂直)上的约束点相关,根据理论位置点拟合出的单个平面,在满足自身平面度的同时,还需要保证两相关平面间的位置关系,减小了实际约束点构成的平面与理论位置点拟合出的平面之间的偏差。通过对两个相互平行或垂直的约束平面进行接触式测量,最终将测量得到的数据代入双平面约束误差模型,辨识出机器人真实的几何连杆参数,修正后重复测量约束平面并辨识,直到达到精度要求。本发明方法具有成本低、精度更高的特点。

    一种基于机器视觉的钢桶螺纹盖位姿识别方法

    公开(公告)号:CN108416809B

    公开(公告)日:2023-08-22

    申请号:CN201810195723.X

    申请日:2018-03-09

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于机器视觉的钢桶螺纹盖位姿识别方法,包括,利用相机采集放置于传送带上的钢桶螺纹盖的俯视图,并对图像进行预处理,得到钢桶螺纹盖单像素外轮廓曲线,通过圆的垂径定理,利用逐点扫描的方式得到钢桶螺纹盖的中心坐标即抓取点的位置;再提取钢桶螺纹盖的内部的直线特征,求出直线在图像像素坐标系下的斜率,利用反三角函数得出钢桶螺纹盖的摆放角度。相对于目前绝大多数的国内企业仍采用传统的示教再现方法,本发明提出的算法不需要在传动带上添加辅助定位机构,设备和流水线简单,减小了流水线的故障发生率,提高了流水线的生产效率。

    一种机器人手眼静态标定方法

    公开(公告)号:CN106920261B

    公开(公告)日:2019-09-03

    申请号:CN201710119879.5

    申请日:2017-03-02

    Applicant: 江南大学

    Abstract: 本发明涉及一种机器人手眼静态标定方法,用于求解机器人手眼矩阵。首先建立经典的摄像机几何成像模型,通过张正友标定法得到摄像机的内参;其次通过光学测量设备分别确定测量坐标系与世界坐标系、机器人末端法兰坐标系的转换关系;通过对标定板一次成像可得到摄像机的外参即摄像机坐标系与标定板坐标系的转换关系,由此可快速计算得到机器人手眼关系。避免传统方法的复杂求解,且整个标定过程机器人不需要运动,因此是静态标定,避免了主动视觉法由于机器人连杆参数等误差导致的标定精度降低。本发明的方法具有可靠、计算简单、精度高的特点,且适用于摄像机与任意基座的转换关系,不局限于机器人末端,拓展性较强。

    一种钢桶螺纹盖抓取旋紧方法

    公开(公告)号:CN107030477A

    公开(公告)日:2017-08-11

    申请号:CN201710493645.7

    申请日:2017-06-26

    Applicant: 江南大学

    Abstract: 本发明涉及一种钢桶螺纹盖旋紧机器人,针对钢桶生产流水线上钢桶螺纹盖的抓取和旋紧。该机器人具备视觉系统能够自动识别钢桶螺纹盖,并获得其位置和姿态信息,通过安装相应的专用末端执行器来完成钢桶螺纹盖抓取和旋紧。当钢桶螺纹盖到达传送带指定位置时,相机获取钢桶螺纹盖的图像信息并传送给上位机,上位机对图像进行处理,得出钢桶螺纹盖的位置及姿态信息,并将信息发送给机器人控制器,机器人控制器控制机器人运动至钢桶螺纹盖所在位置,调整姿态进行抓取,将钢桶螺纹盖移至钢桶桶盖对应位置处,末端执行器动作,实现钢桶螺纹盖的旋紧。本发明的方法具有可靠,操作难度低,工作效率高的特点,且主要过程都由机器人完成,涉及到的机器较少,从而减少了故障的发生率并将人类从重复、烦躁的工作中替代出来。

    一种机器人手眼静态标定方法

    公开(公告)号:CN106920261A

    公开(公告)日:2017-07-04

    申请号:CN201710119879.5

    申请日:2017-03-02

    Applicant: 江南大学

    Abstract: 本发明涉及一种机器人手眼静态标定方法,用于求解机器人手眼矩阵。首先建立经典的摄像机几何成像模型,通过张正友标定法得到摄像机的内参;其次通过光学测量设备分别确定测量坐标系与世界坐标系、机器人末端法兰坐标系的转换关系;通过对标定板一次成像可得到摄像机的外参即摄像机坐标系与标定板坐标系的转换关系,由此可快速计算得到机器人手眼关系。避免传统方法的复杂求解,且整个标定过程机器人不需要运动,因此是静态标定,避免了主动视觉法由于机器人连杆参数等误差导致的标定精度降低。本发明的方法具有可靠、计算简单、精度高的特点,且适用于摄像机与任意基座的转换关系,不局限于机器人末端,拓展性较强。

    一种全向驱动轮
    9.
    发明公开

    公开(公告)号:CN106828077A

    公开(公告)日:2017-06-13

    申请号:CN201710213081.7

    申请日:2017-04-01

    Applicant: 江南大学

    CPC classification number: B60K7/0007 B60K2007/0092 B62D5/0418

    Abstract: 本发明公开了一种全向驱动轮,包括转向驱动电机、转向驱动减速器、法兰、车轮、直线驱动电机、刹车和车架;转向驱动电机与转向驱动减速器通过螺钉固定,转向驱动减速器通过法兰用螺钉固定安装在车体上,同时法兰也通过螺钉与连接架固定连接。刹车和车轮均与直线驱动电机连接并且直线驱动固定安装在车架上。该全向驱动轮包括两个驱动电机,直线运动由直线驱动电机控制,转向运动由转向驱动电机控制,两者相互独立驱动,可以使车轮实现前进、后退、转向、斜向运动等。转向驱动电机的轴线垂直通过车轮横向轴线和纵向轴向的交点位置,仅由一个转向驱动电机即可控制车轮实现原地回转。同样可以根据需求对该全向驱动轮进行组合,使不同配置的轮式移动机器人实现原地回转。

    一种基于视觉辅助定位的机器人自标定方法

    公开(公告)号:CN107214703B

    公开(公告)日:2020-08-14

    申请号:CN201710560011.9

    申请日:2017-07-11

    Applicant: 江南大学

    Abstract: 本发明涉及一种基于平面约束以及视觉辅助定位的机器人自标定方法,用于获取机器人真实的连杆参数。首先建立D‑H法与MD‑H法相结合的机器人运动学模型;其次建立机器人末端位置误差模型;然后建立基于平面约束的机器人连杆参数误差模型;通过双目视觉获取约束平面在左右相机中的图像并提取单幅图像中的目标点信息,通过立体匹配定位约束平面在机器人基坐标系下的三维位置信息;将该位置信息输入给机器人控制系统,驱动机器人对约束平面进行测量;最终将测量得到的数据代入平面约束误差模型,辨识出机器人真实的几何连杆参数,修正后重复测量约束平面并辨识,直到达到精度要求。本发明方法具有成本低、精度高、效率高的特点。

Patent Agency Ranking