-
公开(公告)号:CN119202664A
公开(公告)日:2024-12-27
申请号:CN202411345157.8
申请日:2024-09-25
Applicant: 南京邮电大学
IPC: G06F18/213 , G06N3/045 , G06N5/022
Abstract: 本发明属于计算机应用领域,公开了一种基于多头注意力机制的地形要点分析方法。该方法包括:(10)构建空间区域,获取区域内基本地形信息。(20)根据专家知识规则构建指标体系。(30)构建模型数据集并做预处理。(40)引入多头注意力层,对模型进行训练,得出各点注意力值。(50)根据注意力值,设定阈值,输出要点及要点分析结果。本发明的有益效果为:该方法根据知识规则构建地形数据集,并引入多头注意力机制学习地形要点重要特征的权重,该方法能够准确识别和关注地形中重要要点,科学客观地辅助地形要点选取,提高地形分析的精度和实用性。
-
公开(公告)号:CN118114746A
公开(公告)日:2024-05-31
申请号:CN202410508730.6
申请日:2024-04-26
Applicant: 南京邮电大学
IPC: G06N3/092 , B25J9/16 , G06N3/06 , G06N3/0455
Abstract: 本发明提供了一种基于贝尔曼误差的方差最小化强化学习机械臂训练加速方法,用于机械臂控制,包括如下步骤:将工程问题建立成强化学习环境模型,通过使用位置传感器和旋转编码器,获取并测量了机械臂在运动过程中的关节角度、角速度、末端执行器位置、末端执行器速度和障碍物位置等位置姿态数据。数据经神经网络转化,形成了机械臂状态的特征。利用基于投影贝尔曼误差的方差最小化算法进行训练,提升机器臂的控制策略。通过反复迭代训练,最终获得机械臂的最优控制策略,提升机械臂在特定任务和应用场景中的表现。该方法通过减小梯度估计方差,能加快收敛到最优策略的速度,提高机械臂训练的准确性和效率,改善自动化控制系统性能。
-
公开(公告)号:CN116859755A
公开(公告)日:2023-10-10
申请号:CN202311092025.4
申请日:2023-08-29
Applicant: 南京邮电大学
IPC: G05B13/04
Abstract: 本发明提供了一种无人车驾驶控制的最小化协方差强化学习训练加速方法,包括以下步骤:将工程问题建立成强化学习环境模型,利用坡度传感器、地面湿度传感器以及定位器等传感器获取丘陵地段的地形、天气信息以及无人车自身信息;然后,通过已训练好的神经网络将这些(状态信息‑动作)转化为特征;接着利用最小化协方差算法进行强化学习训练,通过不断的训练,可以得到无人车在山丘地形中驾驶控制的最优策略。本发明的方法通过强化学习提高丘陵地形中无人车驾驶控制的训练速度,更快学到最优控制策略,提高无人车丘陵地形驾驶的准确性和效率,有效的解决了现有技术中无人车在丘陵地形驾驶控制存在的问题,具有较好的使用价值和经济效益。
-
公开(公告)号:CN116803635B
公开(公告)日:2023-12-22
申请号:CN202311048210.3
申请日:2023-08-21
Applicant: 南京邮电大学
IPC: B25J9/16
Abstract: 本发明提供了一种基于高斯核损失函数的近端策略优化训练加速方法,用于对双关节机器人自动化控制的训练过程进行加速,主要包括以下步骤:将工程问题建立成强化学习环境模型,利用姿态传感器获取双关节机器人当前的状态信息,将获得的状态信息作为神经网络的输入,输出可选动作的概率分布,利用基于高斯核损失函数的近端策略优化对网络进行训练,以逐步改善机器人的控制策略,通过连续的训练迭代,可以得到双关节机器人自动化控制的最优策略。与现有技术相比,本发明方法能够加快双关节机器人自动化控制的训练速度,更快学到最优控制策略。该优化策略还可以进一步应用于更复杂的欠驱动机器人系统中,为实现更高级别的自动化控制提供了有力的工具。
-
公开(公告)号:CN116859755B
公开(公告)日:2023-12-08
申请号:CN202311092025.4
申请日:2023-08-29
Applicant: 南京邮电大学
IPC: G05B13/04
Abstract: 本发明提供了一种无人车驾驶控制的最小化协方差强化学习训练加速方法,包括以下步骤:将工程问题建立成强化学习环境模型,利用坡度传感器、地面湿度传感器以及定位器等传感器获取丘陵地段的地形、天气信息以及无人车自身信息;然后,通过已训练好的神经网络将这些(状态信息‑动作)转化为特征;接着利用最小化协方差算法进行强化学习训练,通过不断的训练,可以得到无人车在山丘地形中驾驶控制的最优策略。本发明的方法通过强化学习提高丘陵地形中无人车驾驶控制的训练速度,更快学到最优控制策略,提高无人车丘陵地形驾驶的准确性和效率,有效的解决了现有技术中无人车在丘陵地形驾驶控制存在的问题,具有较好的使用价值和(56)对比文件Viktor Wiberg etal..Control of RoughTerrain Vehicles Using Deep ReinforcementLearning《.IEEE ROBOTICS AND AUTOMATIONLETTERS》.2022,第390-397页.Guang Yang etal..DHQN: a StableApproach to Remove Target Network fromDeep Q-learning Network《.2021 IEEE 33rdInternational Conference on Tools withArtificial Intelligence (ICTAI)》.2021,第1474-1479页.Yang Yu etal..HierarchicalReinforcement Learning Combined withMotion Primitives for AutomatedOvertaking《.2020 IEEE IntelligentVehicles Symposium (IV)》.2020,第1-6页.
-
公开(公告)号:CN118114746B
公开(公告)日:2024-07-23
申请号:CN202410508730.6
申请日:2024-04-26
Applicant: 南京邮电大学
IPC: G06N3/092 , B25J9/16 , G06N3/06 , G06N3/0455
Abstract: 本发明提供了一种基于贝尔曼误差的方差最小化强化学习机械臂训练加速方法,用于机械臂控制,包括如下步骤:将工程问题建立成强化学习环境模型,通过使用位置传感器和旋转编码器,获取并测量了机械臂在运动过程中的关节角度、角速度、末端执行器位置、末端执行器速度和障碍物位置等位置姿态数据。数据经神经网络转化,形成了机械臂状态的特征。利用基于投影贝尔曼误差的方差最小化算法进行训练,提升机器臂的控制策略。通过反复迭代训练,最终获得机械臂的最优控制策略,提升机械臂在特定任务和应用场景中的表现。该方法通过减小梯度估计方差,能加快收敛到最优策略的速度,提高机械臂训练的准确性和效率,改善自动化控制系统性能。
-
公开(公告)号:CN116803635A
公开(公告)日:2023-09-26
申请号:CN202311048210.3
申请日:2023-08-21
Applicant: 南京邮电大学
IPC: B25J9/16
Abstract: 本发明提供了一种基于高斯核损失函数的近端策略优化训练加速方法,用于对双关节机器人自动化控制的训练过程进行加速,主要包括以下步骤:将工程问题建立成强化学习环境模型,利用姿态传感器获取双关节机器人当前的状态信息,将获得的状态信息作为神经网络的输入,输出可选动作的概率分布,利用基于高斯核损失函数的近端策略优化对网络进行训练,以逐步改善机器人的控制策略,通过连续的训练迭代,可以得到双关节机器人自动化控制的最优策略。与现有技术相比,本发明方法能够加快双关节机器人自动化控制的训练速度,更快学到最优控制策略。该优化策略还可以进一步应用于更复杂的欠驱动机器人系统中,为实现更高级别的自动化控制提供了有力的工具。
-
-
-
-
-
-