一种基于多智能体强化学习的机器人追捕方法

    公开(公告)号:CN113095500A

    公开(公告)日:2021-07-09

    申请号:CN202110348762.0

    申请日:2021-03-31

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于多智能体强化学习的机器人追捕方法,该方法包括构建两追一逃环境、构建马尔科夫模型、获取两追一逃网络模型以及扩展多追多逃策略等步骤。该方法利用已知的追捕机器人的运动学模型向前模拟追捕机器人在下一时刻的状态,并通过基于值函数的近似策略迭代算法,训练得到两追一逃环境下的追捕策略,进而通过贪心决策算法扩展至多追多逃的情况,得到多追多逃情况下的最优追捕策略,该方法得到的追捕策略追捕成功率更高,从而使追捕过程更加高效、可靠。

    一种基于多智能体强化学习的机器人追捕方法

    公开(公告)号:CN113095500B

    公开(公告)日:2023-04-07

    申请号:CN202110348762.0

    申请日:2021-03-31

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于多智能体强化学习的机器人追捕方法,该方法包括构建两追一逃环境、构建马尔科夫模型、获取两追一逃网络模型以及扩展多追多逃策略等步骤。该方法利用已知的追捕机器人的运动学模型向前模拟追捕机器人在下一时刻的状态,并通过基于值函数的近似策略迭代算法,训练得到两追一逃环境下的追捕策略,进而通过贪心决策算法扩展至多追多逃的情况,得到多追多逃情况下的最优追捕策略,该方法得到的追捕策略追捕成功率更高,从而使追捕过程更加高效、可靠。

    一种考虑机械臂运动约束的三维重建中相机位姿估计方法

    公开(公告)号:CN114782540B

    公开(公告)日:2022-09-09

    申请号:CN202210707774.2

    申请日:2022-06-22

    Applicant: 南开大学

    Abstract: 本发明公开了一种考虑机械臂运动约束的三维重建中相机位姿估计方法,包括:搭建机器人手眼视觉系统,同步获取RGBD相机的深度图像和彩色图像以及对应帧的机械臂位姿数据;对深度图像进行预处理,并将深度图像对齐到彩色图像;分别利用当前帧和上一帧的彩色图像、深度图像以及对应帧的机械臂位姿数据构建相应的光度误差函数、几何误差函数和三维坐标误差函数;对三种误差函数进行加权联合生成最终误差函数;对最终误差函数进行非线性迭代优化,求解相机的相对位姿。本发明在三维重建过程中,利用RGBD相机所输出的深度图像和彩色图像以及对应帧的机械臂位姿数据构建相应误差函数,通过联合优化三种误差函数提高了相机位姿估计的准确度。

    一种基于深度强化学习的机器人追逃博弈方法

    公开(公告)号:CN113377099A

    公开(公告)日:2021-09-10

    申请号:CN202110348781.3

    申请日:2021-03-31

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人追逃博弈方法,包括:确定追逃双方智能体在含障碍物的追逃博弈场景中的约束条件;分别构建追逃双方智能体的回报函数;引入深度Q网络算法,并结合约束条件和回报函数,分别构建追逃双方智能体的初始追逃博弈模型;结合课程学习机制和自我对弈机制分别对追逃双方智能体的初始追逃博弈模型进行训练,并利用训练过程中的交互数据不断对追逃双方智能体的深度Q网络进行更新,得到追逃双方智能体的最终追逃博弈模型。本发明基于DQN的动作空间离散的追逃博弈算法,并结合自我对弈和课程学习的机制同时训练追捕者和逃跑者智能体,很大程度上优化了追捕者和逃跑者的输出策略。

    一种基于进化强化学习的机器人对抗方法

    公开(公告)号:CN113095463A

    公开(公告)日:2021-07-09

    申请号:CN202110351009.7

    申请日:2021-03-31

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于进化强化学习的机器人对抗方法,包括:构建基于深度强化学习的机器人对抗策略;所述对抗策略为深度确定性策略梯度算法DDPG;结合进化算法与所述对抗策略,形成进化深度确定性策略梯度算法EDDPG;利用算法DDPG和算法EDDPG训练后的策略网络模型作为控制器,控制机器人与由基于威胁指数的对抗策略控制的机器人进行对抗。该方法考虑使用进化强化学习方法,它是深度强化学习与进化思想的结合,其中,深度强化学习方法无需建模,可以实现对机器人端到端的控制,且具有一定的泛化能力,能够有效解决现有方法存在的问题,进化思想则利用种群提高强化学习的探索能力和稳定性。

    基于深度相机的机器人自主识别智能抓取方法及系统

    公开(公告)号:CN113379849B

    公开(公告)日:2023-04-18

    申请号:CN202110648787.2

    申请日:2021-06-10

    Applicant: 南开大学

    Abstract: 本公开提供了基于深度相机的机器人自主识别智能抓取方法,包括:获取目标工件的彩色图像和深度图像;将彩色图像和深度图像输入路径获取模型,获取目标工件的机器人抓取路径;根据机器人抓取路径对目标工件进行智能抓取;所述路径获取模型的建立包括,利用非线性迭代优化算法获取位姿变换矩阵的精确值,基于精确值对相机坐标系下的工件位姿进行位姿变换获得机器人坐标系下的工件位姿;根据机器人坐标系下的工件位姿进行路径规划;无需借助其他传感器可独立完成工件检测和定位,降低了成本,与双目相机相比,节省了计算资源,可保证系统的实时性;同时采用基于联合优化的手眼标定算法,进一步提高了标定精度,进而提高了对工件的定位精度。

    一种考虑机械臂运动约束的三维重建中相机位姿估计方法

    公开(公告)号:CN114782540A

    公开(公告)日:2022-07-22

    申请号:CN202210707774.2

    申请日:2022-06-22

    Applicant: 南开大学

    Abstract: 本发明公开了一种考虑机械臂运动约束的三维重建中相机位姿估计方法,包括:搭建机器人手眼视觉系统,同步获取RGBD相机的深度图像和彩色图像以及对应帧的机械臂位姿数据;对深度图像进行预处理,并将深度图像对齐到彩色图像;分别利用当前帧和上一帧的彩色图像、深度图像以及对应帧的机械臂位姿数据构建相应的光度误差函数、几何误差函数和三维坐标误差函数;对三种误差函数进行加权联合生成最终误差函数;对最终误差函数进行非线性迭代优化,求解相机的相对位姿。本发明在三维重建过程中,利用RGBD相机所输出的深度图像和彩色图像以及对应帧的机械臂位姿数据构建相应误差函数,通过联合优化三种误差函数提高了相机位姿估计的准确度。

    基于深度相机的机器人自主识别智能抓取方法及系统

    公开(公告)号:CN113379849A

    公开(公告)日:2021-09-10

    申请号:CN202110648787.2

    申请日:2021-06-10

    Applicant: 南开大学

    Abstract: 本公开提供了基于深度相机的机器人自主识别智能抓取方法,包括:获取目标工件的彩色图像和深度图像;将彩色图像和深度图像输入路径获取模型,获取目标工件的机器人抓取路径;根据机器人抓取路径对目标工件进行智能抓取;所述路径获取模型的建立包括,利用非线性迭代优化算法获取位姿变换矩阵的精确值,基于精确值对相机坐标系下的工件位姿进行位姿变换获得机器人坐标系下的工件位姿;根据机器人坐标系下的工件位姿进行路径规划;无需借助其他传感器可独立完成工件检测和定位,降低了成本,与双目相机相比,节省了计算资源,可保证系统的实时性;同时采用基于联合优化的手眼标定算法,进一步提高了标定精度,进而提高了对工件的定位精度。

Patent Agency Ranking