基于射影单应性矩阵的机器人无标定视觉伺服轨迹规划方法

    公开(公告)号:CN108628310B

    公开(公告)日:2020-08-14

    申请号:CN201810392600.5

    申请日:2018-04-27

    Abstract: 本发明属于机器人技术领域,并公开了基于射影单应性矩阵的机器人无标定视觉伺服轨迹规划方法。首先获取理想图像与参考图像,然后结合初始图像与理想图像、参考图像之间的特征点的匹配关系,计算初始图像与理想图像之间的射影单应性矩阵的真实值以及无穷远射影单应性矩阵的真实值,最后根据射影单应性矩阵的真实值在射影单应性矩阵空间进行轨迹规划。本发明所涉及的轨迹规划过程完全不需要任何相机参数,且所生成的射影单应性矩阵空间的轨迹等效于相机在三维空间中直线运动与最优旋转运动的结合,有利于提升视觉伺服技术在无标定条件下的性能与鲁棒性。

    一种已知环境下的移动机器人规划方法

    公开(公告)号:CN107544502A

    公开(公告)日:2018-01-05

    申请号:CN201710874359.5

    申请日:2017-09-25

    Abstract: 本发明属于智能化机器人领域,其公开了一种已知环境下的移动机器人路径规划方法,该方法包括以下步骤:(1)依据所述最小分割值对已知环境的二维地图进行不均匀分割,以得到已知环境的非均匀栅格地图;(2)根据移动机器人在所述非均匀栅格地图内的位置、起点及终点构建已知环境的数学模型;(3)采用改进的人工势能场算法搜索移动机器人的目标位置;(5)根据得到的目标位置、所述起点及所述终点获得避开障碍物的从所述起点到所述终点的路径,路径规划结束。本发明通过对已知环境的二维地图进行不均匀分割来减小环境存储信息量,提高了计算效率及路径规划效率,灵活性较高。

    基于改进几何粒子滤波的动态目标实时跟踪方法和系统

    公开(公告)号:CN110223319B

    公开(公告)日:2021-08-10

    申请号:CN201910350004.5

    申请日:2019-04-28

    Abstract: 本发明公开了一种基于改进几何粒子滤波的动态目标实时跟踪方法,属于计算机视觉技术领域。本发明首先获取目标图像,提取目标图像的特征点和边缘特征,并对边缘特征进行形态学膨胀得到特征像素;接着获取初始图像,提取初始图像中的特征点,将其与目标图像中的特征点进行匹配,以初始化目标区域;然后对初始化后的目标区域进行2D仿射变换,获取候选目标区域,根据2D仿射变换将膨胀后的边缘映射到候选目标区域进行匹配,更新粒子权重,对粒子进行重采样,进而得到目标物的位置估计。本发明还公开了一种基于改进几何粒子滤波的动态目标实时跟踪系统。本发明可有效提升动态目标视觉实时跟踪性能。

    基于改进几何粒子滤波的动态目标实时跟踪方法和系统

    公开(公告)号:CN110223319A

    公开(公告)日:2019-09-10

    申请号:CN201910350004.5

    申请日:2019-04-28

    Abstract: 本发明公开了一种基于改进几何粒子滤波的动态目标实时跟踪方法,属于计算机视觉技术领域。本发明首先获取目标图像,提取目标图像的特征点和边缘特征,并对边缘特征进行形态学膨胀得到特征像素;接着获取初始图像,提取初始图像中的特征点,将其与目标图像中的特征点进行匹配,以初始化目标区域;然后对初始化后的目标区域进行2D仿射变换,获取候选目标区域,根据2D仿射变换将膨胀后的边缘映射到候选目标区域进行匹配,更新粒子权重,对粒子进行重采样,进而得到目标物的位置估计。本发明还公开了一种基于改进几何粒子滤波的动态目标实时跟踪系统。本发明可有效提升动态目标视觉实时跟踪性能。

    基于射影单应性矩阵的机器人无标定视觉伺服轨迹规划方法

    公开(公告)号:CN108628310A

    公开(公告)日:2018-10-09

    申请号:CN201810392600.5

    申请日:2018-04-27

    Abstract: 本发明属于机器人技术领域,并公开了基于射影单应性矩阵的机器人无标定视觉伺服轨迹规划方法。首先获取理想图像与参考图像,然后结合初始图像与理想图像、参考图像之间的特征点的匹配关系,计算初始图像与理想图像之间的射影单应性矩阵的真实值以及无穷远射影单应性矩阵的真实值,最后根据射影单应性矩阵的真实值在射影单应性矩阵空间进行轨迹规划。本发明所涉及的轨迹规划过程完全不需要任何相机参数,且所生成的射影单应性矩阵空间的轨迹等效于相机在三维空间中直线运动与最优旋转运动的结合,有利于提升视觉伺服技术在无标定条件下的性能与鲁棒性。

    一种基于视觉的双机器人相对位姿在线标定方法

    公开(公告)号:CN108519055A

    公开(公告)日:2018-09-11

    申请号:CN201810385326.9

    申请日:2018-04-26

    CPC classification number: G01B11/002

    Abstract: 本发明属于多机器人相对位姿标定领域,并具体公开了一种基于视觉的双机器人相对位姿在线标定方法,该方法包括如下步骤:第一步,分别离线确定机器人A的基坐标系{A}与相机坐标系{C}的位姿关系ATC,以及机器人B的基坐标系{B}与靶标坐标系{M}的位姿关系BTM;第二步,通过视觉测量技术在线获取相机坐标系与靶标坐标系的位姿关系CTM,根据ATC、BTM和CTM坐标系闭环构建标定方程来计算双机器人相对位姿关系ATB,以此完成双机器人基坐标系的标定。本发明仅需一次离线测定便可按需进行多次高精度的在线标定,适合多机器人相对位姿经常变化且对协同作业精度要求较高,需要频繁、快速进行相对位姿标定的场合。

Patent Agency Ranking