一种工业机器人自动手眼标定方法

    公开(公告)号:CN110695996B

    公开(公告)日:2022-05-31

    申请号:CN201910971948.4

    申请日:2019-10-14

    Applicant: 扬州大学

    Abstract: 本发明公开了一种工业机器人自动手眼标定方法,包括:将标定板放置在目标工作区域内,并调整相机,使之位于标定板的正上方处;根据相机与末端工具坐标系之间的设计进行粗略标定,获取相机与末端工具坐标系之间的位姿关系;以标定板坐标系原点为球心,按照球体坐标系参数进行相机位姿规划并将其转化为笛卡尔坐标系下的位姿;通过使用粗略的相机与末端工具坐标系之间的位姿关系将转化后标定板坐标系下的相机位姿转换为对应的机器人位姿;通过相机获取当前位姿并记录,判断当前位姿是否为最后的标定位姿,本发明节省大量的手眼标定工作量和时间,减小了手眼标定对技术人员的专业水平要求,提高了工业机器人的手眼标定稳定性。

    基于标定与精确几何结构的瓶体标签稳定高质量拼接方法

    公开(公告)号:CN114331833A

    公开(公告)日:2022-04-12

    申请号:CN202111505585.9

    申请日:2021-12-10

    Applicant: 扬州大学

    Abstract: 本发明公开了计算机视觉领域内的基于标定与精确几何结构的瓶体标签稳定高质量拼接方法,包括离线数据建立:对瓶体建立坐标系模型,假设瓶体处于四相机平台的几何中心;建立瓶体模板,进行模板匹配;在线算法建立:确定真实的瓶体轴线;瓶体体表面点采样,在各相机最优观测位置上获取标签图像上像素点的灰度值,赋值给瓶体标签展开图像上对应的像素;图像拼接,首先将处理后标签部分图像进行匹配定位裁剪,然后利用NCC优化调整后,将四幅图像拼接成一幅标签展开图,并统一拼接时的起始位置图像,本发明大大提高建立模板的速度,降低建立模板对操作人员的技术要求,相比于四图像普通拼接效果更精确平滑,并提高了圆柱标签检测的准确率和稳定性。

    基于灰度投影极值的多行喷码字符序贯分割方法

    公开(公告)号:CN113033569A

    公开(公告)日:2021-06-25

    申请号:CN202110338919.1

    申请日:2021-03-30

    Applicant: 扬州大学

    Abstract: 本发明公开了一种基于灰度投影极值的多行喷码字符序贯分割方法,包括以下:S1使用工业相机采集图像信息;S2将图像进行灰度化处理并倾斜矫正至水平;S3定位获取字符区域灰度图像;S4采用水平灰度投影的方法获取字符区域灰度图像的每一行平均灰度值数组;S5采用序贯范围搜索方法,寻找行平均灰度值极值处,确定行字符分割处;S6采用垂直灰度投影的方法分别获取每一行字符区域的每一列平均灰度值数组;S7采用序贯范围搜索方法,寻找列平均灰度值极值处,确定列字符分割处;S8分割多行喷码字符,本发明对喷码字符进行水平灰度投影和垂直灰度投影,再进行序贯范围搜索,将多行字符分割成单个字符序列,为字符识别提供可靠的基础。

    基于机器人视觉的发动机缸体孔径与孔位检测方法

    公开(公告)号:CN112729112A

    公开(公告)日:2021-04-30

    申请号:CN202011547260.2

    申请日:2020-12-24

    Applicant: 扬州大学

    Abstract: 本发明公开了一种基于机器人视觉的发动机缸体孔径与孔位检测方法,包括:S1)控制相机对位于标定板进行图像采集并记录拍照位姿;S2)标定相机内外参数、相机坐标系与机器人工具坐标系之间的相对位姿;S3)以固定相机拍照距离示教拍摄覆盖发动机缸体所有加工孔的拍照位姿并记录;S4)基于CAD模型建立发动机缸体表面孔径与孔位的模型数据,并按照一定规则写入模板csv文件;S5)发动机检测面到位后,相机到达预先示教的拍照位姿,拍照并测量发动机孔直径端点和中心点位置;S6)结合标定结果将测得的孔径与孔位信息转换为物理直径和相对位置,本发明可完成精确的孔径和孔位检测。

    一种大型稀疏特征托盘精确6D位姿测量和抓取方法

    公开(公告)号:CN112109072A

    公开(公告)日:2020-12-22

    申请号:CN202011002372.X

    申请日:2020-09-22

    Applicant: 扬州大学

    Abstract: 本发明公开了一种大型稀疏特征托盘精确6D位姿测量和抓取方法,包括离线校准和示教:利用两个摄像机图像的二维信息可以确定托盘的特征,并将其转换为相机坐标系中的3D坐标,并提前进行手眼标定,在手眼标定工作结束后,也进行了示教过程;在线位姿测量和抓取:机器人将双目视觉安装到一个位置,可以发现物流托盘上的一个特征;移动机器人,可以发现托盘上另一个特征;再移动机器人,发现托盘上第三个特征,并且这三个特征不共线,然后这三个特征在图像上的位置使用基于形状的模板匹配来定位;用双目视觉重建特征点的3D位置;通过3个特征点计算位置和姿态,并根据这个信息进行抓取,本方法降低了硬件的要求并且具有更高的位姿测量精度。

    一种工业机器人自动手眼标定方法

    公开(公告)号:CN110695996A

    公开(公告)日:2020-01-17

    申请号:CN201910971948.4

    申请日:2019-10-14

    Applicant: 扬州大学

    Abstract: 本发明公开了一种工业机器人自动手眼标定方法,包括:将标定板放置在目标工作区域内,并调整相机,使之位于标定板的正上方处;根据相机与末端工具坐标系之间的设计进行粗略标定,获取相机与末端工具坐标系之间的位姿关系;以标定板坐标系原点为球心,按照球体坐标系参数进行相机位姿规划并将其转化为笛卡尔坐标系下的位姿;通过使用粗略的相机与末端工具坐标系之间的位姿关系将转化后标定板坐标系下的相机位姿转换为对应的机器人位姿;通过相机获取当前位姿并记录,判断当前位姿是否为最后的标定位姿,本发明节省大量的手眼标定工作量和时间,减小了手眼标定对技术人员的专业水平要求,提高了工业机器人的手眼标定稳定性。

Patent Agency Ranking