一种基于时延Petri网控制的多AGV避碰方法

    公开(公告)号:CN117170378A

    公开(公告)日:2023-12-05

    申请号:CN202311279826.1

    申请日:2023-10-07

    Abstract: 本发明公开了一种基于时延Petri网控制的多AGV避碰方法,该方法首先搭建仿真智能工厂,设计可监控的时延Petri网对AGV调度系统进行建模。其次为处在节点w处的AGV选择下一节点h作为行驶方向,将行驶方向转化为Petri网的变迁集合T={ti,tj,tk}。然后判断变迁ti能否触发,若不能触发则AGV停在节点w处等待,直到变迁ti触发,AGV从当前节点进入到路径中,变迁tj触发,变迁发生结束后AGV抵达该路径路口处。最后判断变迁tk能否触发,若不能触发则在路口等待,直到变迁tk触发,AGV从路口行驶至节点h。本发明实时监控路径中的交通情况并控制AGV的启停,解决了AGV在交叉路口的冲突问题。

    一种基于方位的移动机器人协同校正算法

    公开(公告)号:CN113984073B

    公开(公告)日:2024-05-28

    申请号:CN202111167717.1

    申请日:2021-09-29

    Inventor: 田玉平 刘超群

    Abstract: 本发明公开了一种基于方位的移动机器人协同校正算法,包括以下步骤:定位体记录观测信息,所述观测信息包括目标体发送的播报信息以及定位体自身的坐标信息;定位体接收观测信息并对观测信息进行预处理;根据预处理后得到的观测值通过迭代计算不断校正,从而实现定位体的精准定位,采用上述技术方案,无需依赖固定的参考位置和连续通讯,有利于实际运用,扩展了文献中对移动节点处理不足的缺陷,并且通过预处理过程中的基于最小二乘法的拟合算法和适用于动态的基于扩展卡尔曼滤波的噪声处理算法,进行精准的校正,大大减小了定位偏差,实现定位体的精准定位。

    一种基于方位的移动机器人协同校正算法

    公开(公告)号:CN113984073A

    公开(公告)日:2022-01-28

    申请号:CN202111167717.1

    申请日:2021-09-29

    Inventor: 田玉平 刘超群

    Abstract: 本发明公开了一种基于方位的移动机器人协同校正算法,包括以下步骤:定位体记录观测信息,所述观测信息包括目标体发送的播报信息以及定位体自身的坐标信息;定位体接收观测信息并对观测信息进行预处理;根据预处理后得到的观测值通过迭代计算不断校正,从而实现定位体的精准定位,采用上述技术方案,无需依赖固定的参考位置和连续通讯,有利于实际运用,扩展了文献中对移动节点处理不足的缺陷,并且通过预处理过程中的基于最小二乘法的拟合算法和适用于动态的基于扩展卡尔曼滤波的噪声处理算法,进行精准的校正,大大减小了定位偏差,实现定位体的精准定位。

    基于环境最优艏向的水下机器人悬停强化学习控制方法

    公开(公告)号:CN116126000A

    公开(公告)日:2023-05-16

    申请号:CN202310198702.4

    申请日:2023-03-03

    Abstract: 本发明公开了一种基于环境最优艏向的水下机器人悬停强化学习控制方法,包括以下步骤:步骤1、建立水下机器人运动学和动力学模型;步骤2、建立水下机器人与环境交互模型,并定义水下机器人的状态空间和动作空间;步骤3、利用环境最优艏向定位原理,对水下机器人与环境交互模型设置奖励函数和探索策略;步骤4、建立神经网络模型,采用深度确定性策略梯度算法对控制策略进行模型训练,得出水下机器人的控制策略参数;步骤5、根据控制策略参数实现悬停控制。该方法基于强化学习的控制器是一种不依赖于模型的控制方法,不需要精确的水动力系数,仅通过与环境的不断交互,便可以实现自主学习和自主决策,从而最终实现对水下机器人的悬停控制。

    一种基于分布式强化学习的AGV动态路径规划方法

    公开(公告)号:CN115047831A

    公开(公告)日:2022-09-13

    申请号:CN202210561505.X

    申请日:2022-05-23

    Abstract: 本发明公开了一种基于分布式强化学习的AGV动态路径规划方法,包括如下步骤:S1、搭建仿真智能工厂,在仿真智能工厂中每个路径选择节点处设置具备计算、存储和通信功能的智能体;S2、对智能体的参数和在路径上运行的AGV的参数进行设定;S3、设计强化学习中的状态state、动作action、奖励reward、策略policy,S4、训练智能体。与集中式实现的算法相比,当AGV数量控制在一定范围内时表现与集中式效果几乎一致,但本发明的计算次数显著低于集中式,其中我们假设仿真过程中每计算一次Q值即Q[(d,i),j],就算作一次计算次数。从结果能够看出本发明提出的分布式算法以更小的成本达成了差不多的效果。

    一种基于play算子的非对称率相关迟滞建模方法

    公开(公告)号:CN114970335A

    公开(公告)日:2022-08-30

    申请号:CN202210541234.1

    申请日:2022-05-17

    Abstract: 本发明公开了一种基于play算子的非对称率相关迟滞建模方法,包括以下步骤:S1、采集压电陶瓷输入电压与输出位移;S2、结合play算子和elman神经网络建立非对称迟滞模型;S3、非对称迟滞模型中引入率相关项;S4、梯度下降法更新权值,建立非对称率相关迟滞最终模型。通过使用play算子作为elman神经网络的输入,以此拓展神经网络的输入层。同时利用elman神经网络的高精度逼近非线性函数能力,使模型参数辨识更为方便,并且elman神经网络已有经典的训练算法。

    一种基于play算子的非对称率相关迟滞建模方法

    公开(公告)号:CN114970335B

    公开(公告)日:2025-05-09

    申请号:CN202210541234.1

    申请日:2022-05-17

    Abstract: 本发明公开了一种基于play算子的非对称率相关迟滞建模方法,包括以下步骤:S1、采集压电陶瓷输入电压与输出位移;S2、结合play算子和elman神经网络建立非对称迟滞模型;S3、非对称迟滞模型中引入率相关项;S4、梯度下降法更新权值,建立非对称率相关迟滞最终模型。通过使用play算子作为elman神经网络的输入,以此拓展神经网络的输入层。同时利用elman神经网络的高精度逼近非线性函数能力,使模型参数辨识更为方便,并且elman神经网络已有经典的训练算法。

    一种基于分布式强化学习的AGV动态路径规划方法

    公开(公告)号:CN115047831B

    公开(公告)日:2025-01-03

    申请号:CN202210561505.X

    申请日:2022-05-23

    Abstract: 本发明公开了一种基于分布式强化学习的AGV动态路径规划方法,包括如下步骤:S1、搭建仿真智能工厂,在仿真智能工厂中每个路径选择节点处设置具备计算、存储和通信功能的智能体;S2、对智能体的参数和在路径上运行的AGV的参数进行设定;S3、设计强化学习中的状态state、动作action、奖励reward、策略policy,S4、训练智能体。与集中式实现的算法相比,当AGV数量控制在一定范围内时表现与集中式效果几乎一致,但本发明的计算次数显著低于集中式,其中我们假设仿真过程中每计算一次Q值即Q[(d,i),j],#imgabs0#就算作一次计算次数。从结果能够看出本发明提出的分布式算法以更小的成本达成了差不多的效果。

    一种基于扩展干扰观测器的多智能体寻迹编队控制方法

    公开(公告)号:CN114895562A

    公开(公告)日:2022-08-12

    申请号:CN202210539180.5

    申请日:2022-05-18

    Abstract: 本发明公开了一种基于扩展干扰观测器的多智能体寻迹编队控制方法,包括以下步骤:S1、建立含有外界风速场扰动的智能体动力学模型;S2、基于智能体动力学模型设计非线性扩展扰动观测器;S3、基于扰动的估计设计寻迹编队控制器。本发明控制方法简单可靠,精度较高,可有效抑制复杂环境扰动对多智能体寻迹编队系统的不利影响,可用于野外协同信息采集等。

Patent Agency Ranking