-
公开(公告)号:CN118670400B
公开(公告)日:2024-10-29
申请号:CN202411156553.6
申请日:2024-08-22
Applicant: 西南交通大学
Abstract: 本申请涉及基于人工势场和PPO的多智能体航路规划方法和装置,包括对智能体涉及算法的原始参数进行初始化处理;筛选出智能体待执行的下一个动作;使用人工势场函数获取智能体执行动作后的新的状态值;如果满足预设条件,则根据策略网络为智能体制定行动策略;如果未满足预设条件,则对经验库进行管理,根据管理后的经验库对策略网络进行训练,使用训练后的策略网络为智能体制定行动策略。通过使用非确定性策略的算法,克服人工势场的局部最优问题,跳出局部最优点,具有较强的环境适应性和鲁棒性;同时借助积极经验回放方法,加快强化学习方法在避障和路径规划过程中的收敛速度。
-
公开(公告)号:CN116739077B
公开(公告)日:2023-10-31
申请号:CN202311029693.2
申请日:2023-08-16
Applicant: 西南交通大学
Abstract: 本申请涉及一种基于课程学习的多智能体深度强化学习方法和装置。所述方法包括:基于作用半径,确定初始多智能体深度强化学习模型的环境;在初始多智能体深度强化学习模型的环境中,完成一次多智能体深度强化学习模型的训练;重复上述过程,直到多智能体深度强化学习模型完成一个时间节点的训练;重复多智能体深度强化学习模型时间节点的训练过程,得到待评估模型;计算待评估模型与环境交互所得的奖励值,根据奖励值的计算结果,更新作用半径,重复此步骤,直到得到完备多智能体深度强化学习模型。采用本方法能够解决因为占用计算机资源多而导致计算机处理课程任务的效率低的问题。
-
公开(公告)号:CN116739077A
公开(公告)日:2023-09-12
申请号:CN202311029693.2
申请日:2023-08-16
Applicant: 西南交通大学
Abstract: 本申请涉及一种基于课程学习的多智能体深度强化学习方法和装置。所述方法包括:基于作用半径,确定初始多智能体深度强化学习模型的环境;在初始多智能体深度强化学习模型的环境中,完成一次多智能体深度强化学习模型的训练;重复上述过程,直到多智能体深度强化学习模型完成一个时间节点的训练;重复多智能体深度强化学习模型时间节点的训练过程,得到待评估模型;计算待评估模型与环境交互所得的奖励值,根据奖励值的计算结果,更新作用半径,重复此步骤,直到得到完备多智能体深度强化学习模型。采用本方法能够解决因为占用计算机资源多而导致计算机处理课程任务的效率低的问题。
-
公开(公告)号:CN115257988B
公开(公告)日:2024-11-05
申请号:CN202210671425.X
申请日:2022-06-15
Applicant: 西南交通大学
IPC: B62D57/024 , B25J11/00 , B25J19/02
Abstract: 本发明涉及一种自适应壁面的攀爬维护机器人,包括:机架,具有抱紧空间,机架还具有端口部;锁紧机构,设置于机架的端口部,通过改变端口部之间的距离以调节抱紧空间的尺寸;行驶机构,设置于机架,行驶机构包括行驶组件和限位组件,行驶组件用于带动机架升降,限位组件具有第一工作位和第二工作位,在第一工作位时,限位组件控制锁紧机构缩小抱紧空间的尺寸,在第二工作位时,限位组件控制锁紧机构增大抱紧空间的尺寸;能够通过限位组件检测行驶组件与待抱紧物之间相抵的作用力是否到达预设值,从而在抱紧空间的尺寸过大或过小时控制锁紧机构调节抱紧空间尺寸,以适用于不同尺寸的待抱紧物,达到增加机器人泛用性的效果。
-
公开(公告)号:CN115257988A
公开(公告)日:2022-11-01
申请号:CN202210671425.X
申请日:2022-06-15
Applicant: 西南交通大学
IPC: B62D57/024 , B25J11/00 , B25J19/02
Abstract: 本发明涉及一种自适应壁面的攀爬维护机器人,包括:机架,具有抱紧空间,机架还具有端口部;锁紧机构,设置于机架的端口部,通过改变端口部之间的距离以调节抱紧空间的尺寸;行驶机构,设置于机架,行驶机构包括行驶组件和限位组件,行驶组件用于带动机架升降,限位组件具有第一工作位和第二工作位,在第一工作位时,限位组件控制锁紧机构缩小抱紧空间的尺寸,在第二工作位时,限位组件控制锁紧机构增大抱紧空间的尺寸;能够通过限位组件检测行驶组件与待抱紧物之间相抵的作用力是否到达预设值,从而在抱紧空间的尺寸过大或过小时控制锁紧机构调节抱紧空间尺寸,以适用于不同尺寸的待抱紧物,达到增加机器人泛用性的效果。
-
公开(公告)号:CN118670400A
公开(公告)日:2024-09-20
申请号:CN202411156553.6
申请日:2024-08-22
Applicant: 西南交通大学
Abstract: 本申请涉及基于人工势场和PPO的多智能体航路规划方法和装置,包括对智能体涉及算法的原始参数进行初始化处理;筛选出智能体待执行的下一个动作;使用人工势场函数获取智能体执行动作后的新的状态值;如果满足预设条件,则根据策略网络为智能体制定行动策略;如果未满足预设条件,则对经验库进行管理,根据管理后的经验库对策略网络进行训练,使用训练后的策略网络为智能体制定行动策略。通过使用非确定性策略的算法,克服人工势场的局部最优问题,跳出局部最优点,具有较强的环境适应性和鲁棒性;同时借助积极经验回放方法,加快强化学习方法在避障和路径规划过程中的收敛速度。
-
-
-
-
-