机器人抓取点检测方法、系统、介质、设备及程序产品

    公开(公告)号:CN118657835A

    公开(公告)日:2024-09-17

    申请号:CN202411139228.9

    申请日:2024-08-20

    Applicant: 南开大学

    Abstract: 本发明涉及机器人抓取技术领域,公开了机器人抓取点检测方法、系统、介质、设备及程序产品。所述机器人抓取点检测方法包括:将包含待抓取物体的深度图像转换为正方体体素图;基于正方体体素图,通过抓取检测模型,进行抓取点检测;其中,抓取检测模型为并列分支神经网络结构,包括自编码器和自调节编码器;自编码器对正方体体素图进行处理,生成夹持器手指间宽度、夹持器位姿和若干抓取点;由若干层三维卷积组成的自调节编码器,对正方体体素图进行处理,生成调节因子,调节因子用于对若干抓取点进行局部关联调节,调节每个抓取点得分。缩小了预测抓取点得分与实际抓取成功率之间的差距,提高了抓取的安全性和可靠性。

    一种基于共视约束的多传感器紧耦合同步定位与建图方法

    公开(公告)号:CN118603083A

    公开(公告)日:2024-09-06

    申请号:CN202410868969.4

    申请日:2024-07-01

    Applicant: 南开大学

    Abstract: 本发明涉及方位测量技术领域,尤其涉及一种基于共视约束的多传感器紧耦合同步定位与建图方法,包括如下步骤:基于特征点的视觉惯性导航位姿估计和基于几何约束的激光雷达惯性导航位姿估计实现分布式前端里程计,用于对视觉传感器、激光雷达传感器及惯性导航传感器进行前端定位;基于关键帧的数据同步方法同步视觉传感器、激光雷达传感器及惯性导航传感器输出数据;基于流形的跨模态约束标准化方法紧耦合视觉传感器、激光雷达传感器及惯性导航传感器的输出数据约束;基于关键帧共视约束的传感器联合优化方法实现后端建图。本发明提供的方法提高了系统的实时性,且提高了定位与建图精度。

    面向狭窄环境的无人机运动规划方法、装置和存储介质

    公开(公告)号:CN118111447A

    公开(公告)日:2024-05-31

    申请号:CN202410523550.5

    申请日:2024-04-28

    Applicant: 南开大学

    Abstract: 本发明提供了一种面向狭窄环境的无人机运动规划方法、装置和存储介质,涉及无人机导航领域,包括:设定起点和终点;在三维占据地图上进行路径搜索,得到一条无碰撞情况的初始路径;生成远离障碍物的骨架路径:首先确定路点沿远离障碍物方向推动的方向向量,然后沿着方向向量并以三维占据地图的分辨率为步长推动路点,当存在一个最近障碍物在推动方向上时,推动过程结束;生成最优路径:结合弹性能带与骨架引导目标函数,迭代凸优化得到最优路径;分配最优时间:沿最优路径进行含速度与加速度约束的最优时间分配和梯形速度分配,得到运动轨迹。有利于无人机在杂乱且狭窄受限的洞穴等环境中安全且高效地完成巡检和勘探等任务。

    一种基于在线规划调节的机器人轨迹复原控制方法

    公开(公告)号:CN117950317A

    公开(公告)日:2024-04-30

    申请号:CN202410003294.7

    申请日:2024-01-02

    Applicant: 南开大学

    Abstract: 本发明涉及机器人轨迹复原控制领域,具体涉及一种基于在线规划调节的机器人轨迹复原控制方法,包括:检测机器人瞬时剧烈扰动状态;根据所述瞬时剧烈扰动状态对机器人轨迹复原进行双环处理得到机器人轨迹复原初始处理结果;根据所述瞬时剧烈扰动状态基于机器人驱动约束进行轨迹复原得到机器人状态重匹配外环参考轨迹;利用所述机器人状态重匹配外环参考轨迹进行跟踪控制得到机器人状态规划内环约束轨迹;利用所述机器人轨迹复原初始处理结果得到机器人轨迹复原控制结果,创新性地提出了一种分层双环轨迹复原控制方法,在线辨识瞬时剧烈扰动信号然后进行状态重匹配,通过前馈、反馈和自适应技术削弱系统建模不确定性的影响,提高轨迹跟踪性能。

    基于深度相机的机器人自主识别智能抓取方法及系统

    公开(公告)号:CN113379849B

    公开(公告)日:2023-04-18

    申请号:CN202110648787.2

    申请日:2021-06-10

    Applicant: 南开大学

    Abstract: 本公开提供了基于深度相机的机器人自主识别智能抓取方法,包括:获取目标工件的彩色图像和深度图像;将彩色图像和深度图像输入路径获取模型,获取目标工件的机器人抓取路径;根据机器人抓取路径对目标工件进行智能抓取;所述路径获取模型的建立包括,利用非线性迭代优化算法获取位姿变换矩阵的精确值,基于精确值对相机坐标系下的工件位姿进行位姿变换获得机器人坐标系下的工件位姿;根据机器人坐标系下的工件位姿进行路径规划;无需借助其他传感器可独立完成工件检测和定位,降低了成本,与双目相机相比,节省了计算资源,可保证系统的实时性;同时采用基于联合优化的手眼标定算法,进一步提高了标定精度,进而提高了对工件的定位精度。

    一种基于稀疏带状结构的局部路径优化方法及系统

    公开(公告)号:CN113296514B

    公开(公告)日:2022-09-27

    申请号:CN202110566018.8

    申请日:2021-05-24

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于稀疏带状结构的机器人局部路径优化方法及系统,所述方法包括:获取室内环境数据,并构建占据栅格地图;将占据栅格地图转换为欧式距离栅格地图,根据欧氏距离地图插值根据欧氏距离地图插值得到机器人与最近障碍物的距离函数,结合给定机器人到障碍物的安全距离,得到避障约束条件;在以机器人当前位置为中心的局部区域内,以局部路径的平滑性和避障为约束条件,求解局部最优路径。本发明通过将占据栅格地图转换为欧式距离栅格地图,根据欧氏距离栅格地图插值得到机器人到最近障碍物的连续可微的距离函数,克服了占据栅格地图离散化问题,并天然地计算得到梯度信息从而构建避障约束条件,有利于局部路径优化准确性的提高。

    一种考虑机械臂运动约束的三维重建中相机位姿估计方法

    公开(公告)号:CN114782540A

    公开(公告)日:2022-07-22

    申请号:CN202210707774.2

    申请日:2022-06-22

    Applicant: 南开大学

    Abstract: 本发明公开了一种考虑机械臂运动约束的三维重建中相机位姿估计方法,包括:搭建机器人手眼视觉系统,同步获取RGBD相机的深度图像和彩色图像以及对应帧的机械臂位姿数据;对深度图像进行预处理,并将深度图像对齐到彩色图像;分别利用当前帧和上一帧的彩色图像、深度图像以及对应帧的机械臂位姿数据构建相应的光度误差函数、几何误差函数和三维坐标误差函数;对三种误差函数进行加权联合生成最终误差函数;对最终误差函数进行非线性迭代优化,求解相机的相对位姿。本发明在三维重建过程中,利用RGBD相机所输出的深度图像和彩色图像以及对应帧的机械臂位姿数据构建相应误差函数,通过联合优化三种误差函数提高了相机位姿估计的准确度。

    基于深度相机的机器人自主识别智能抓取方法及系统

    公开(公告)号:CN113379849A

    公开(公告)日:2021-09-10

    申请号:CN202110648787.2

    申请日:2021-06-10

    Applicant: 南开大学

    Abstract: 本公开提供了基于深度相机的机器人自主识别智能抓取方法,包括:获取目标工件的彩色图像和深度图像;将彩色图像和深度图像输入路径获取模型,获取目标工件的机器人抓取路径;根据机器人抓取路径对目标工件进行智能抓取;所述路径获取模型的建立包括,利用非线性迭代优化算法获取位姿变换矩阵的精确值,基于精确值对相机坐标系下的工件位姿进行位姿变换获得机器人坐标系下的工件位姿;根据机器人坐标系下的工件位姿进行路径规划;无需借助其他传感器可独立完成工件检测和定位,降低了成本,与双目相机相比,节省了计算资源,可保证系统的实时性;同时采用基于联合优化的手眼标定算法,进一步提高了标定精度,进而提高了对工件的定位精度。

    移动机器人沿给定路径的完备且最短时间轨迹规划方法

    公开(公告)号:CN107943034B

    公开(公告)日:2020-08-04

    申请号:CN201711177997.8

    申请日:2017-11-23

    Applicant: 南开大学

    Abstract: 一种移动机器人沿给定路径的完备且最短时间轨迹规划方法,包括:1.将多维轨迹规划问题转换为路径位置和路径速度的两维问题;1.1以路径位置s,路径速度和路径加速度表示机器人系统;1.2机器人系统的运动学和动力学约束转为路径速度和路径加速度约束;1.3计算最大和最小路径加速度以及最大速度限制曲线MVC*(s);2.以最大路径加速度正向积分加速曲线;3.从加速曲线与MVC*(s)相交点开始,沿MVC*(s)寻找路径加速度切换区域;4.以最小路径加速度反向积分减速曲线;5.当遍历到路径终点时,结束;本发明所提的规划方法能够为给定路径实时输出时间最短轨迹,且该规划方法具有完备性。

    基于全局单应矩阵的单目视觉测量方法

    公开(公告)号:CN104616292B

    公开(公告)日:2017-07-11

    申请号:CN201510021985.0

    申请日:2015-01-19

    Applicant: 南开大学

    Abstract: 一种基于全局单应矩阵的单目视觉测量方法。本发明提出了一种图像平面与所观测地面之间的全局单应矩阵标定方法,从而获得图像平面与整个场景平面之间的一一映射关系。首先,将标定板放置于地面不同位置处,获得多个标定板与对应图像平面直接的局部单应矩阵,然后将多个局部单应矩阵进行信息融合,从而得到全局意义上的映射关系,即全局单应矩阵。同时,本发明对关联高度信息的单应矩阵进行了标定,从而能够对任意已知高度的待测平面进行视觉测量。本发明无需摄像机内参数,且标定精度较高。标定结果成功地应用于室内移动机器人位姿测量。对比实验结果表明,在整个摄像机视野范围内,相比局部单应矩阵的标定方法,本发明具有更高的视觉测量精度。

Patent Agency Ranking