一种基于深度强化学习的四旋翼无人机航线跟随控制方法

    公开(公告)号:CN110673620A

    公开(公告)日:2020-01-10

    申请号:CN201911002811.4

    申请日:2019-10-22

    Abstract: 本发明提出了一种基于深度强化学习的四旋翼无人机航线跟随控制方法,该方法首先建立了四旋翼无人机航线跟随深度强化学习算法的马尔可夫模型,然后采用深度确定性策略梯度(DDPG)算法进行深度强化学习,克服以往基于强化学习的方法控制精度较低、无法实现连续控制和学习过程不稳定等问题,实现高精度的四旋翼无人机航线跟随控制。本发明方法将强化学习与深度神经网络相结合,提高了模型的学习能力和泛化能力,避免了在不确定性环境中人为操作无人机飞行的繁琐性和粗疏性,使得无人机完成航线跟随任务更为安全高效,同时在无人机目标跟踪、自主避障等场景中有很好的应用前景。

    一种基于序贯三支决策的目标意图识别方法

    公开(公告)号:CN111814737B

    公开(公告)日:2022-02-18

    申请号:CN202010729015.7

    申请日:2020-07-27

    Abstract: 本发明公开一种基于序贯三支决策的目标意图识别方法,将序贯思想引入到三支决策中,按照时间顺序以及获取目标信息量的大小将目标意图识别过程分为多个阶段,在每个阶段中使用多类别三支决策方法识别目标意图,对于因目标信息不充分而无法确定目标意图的情况做延迟决策,等待下一阶段获得更多的目标信息来继续对目标意图重新进行识别,以此来解决意图识别中存在的时序性问题,提高了目标意图识别的准确性。

    一种基于并行自我博弈的空战机动方法

    公开(公告)号:CN113095481A

    公开(公告)日:2021-07-09

    申请号:CN202110364109.3

    申请日:2021-04-03

    Abstract: 本发明公开了一种基于并行自我博弈的空战机动方法,首先构建无人机机动模型,再构建红蓝运动态势获取模型,描述红蓝作战相对态势;然后依据马尔科夫过程构建红蓝双方状态空间、红双方动作空间和奖惩函数,接下来构建基于SAC算法的机动决策模型结构,通过空战对抗实现并行自我博弈训练SAC算法,最后测试训练得到的网络,显示作战轨迹并统计作战成功率。本发明能够有效提升敌我对抗水平,增大决策模型作战成功率。

    无监督学习型神经网络的无人机全区域侦察路径规划方法

    公开(公告)号:CN111399541A

    公开(公告)日:2020-07-10

    申请号:CN202010234135.X

    申请日:2020-03-30

    Abstract: 本发明提供了一种无监督学习型神经网络的无人机全区域侦察路径规划方法,通过迭代离线学习得到控制无人机机动的神经网络参数,使得无人机能够在自主规避威胁的前提下,尽可能快速的侦察整个区域。同时本发明得到的机动决策神经网络在不同的地形中具有良好的迁移性和通用性,为无人机在智能路径规划和自主机动决策方向提供了一种新的解决方法。本发明方法简便高效,有效减少无人机因环境信息改变而再规划或重规划的问题,有效节约训练时间成本。

    一种基于并行自我博弈的空战机动方法

    公开(公告)号:CN113095481B

    公开(公告)日:2024-02-02

    申请号:CN202110364109.3

    申请日:2021-04-03

    Abstract: 本发明公开了一种基于并行自我博弈的空战机动方法,首先构建无人机机动模型,再构建红蓝运动态势获取模型,描述红蓝作战相对态势;然后依据马尔科夫过程构建红蓝双方状态空间、红双方动作空间和奖惩函数,接下来构建基于SAC算法的机动决策模型结构,通过空战对抗实现并行自我博弈训练SAC算法,最后测试训练得到的网络,显示作战轨迹并统计作战成功率。本发明能够有效提升敌我对抗水平,增大决策模型作战成功率。

    一种基于MADDPG的多无人机任务决策方法

    公开(公告)号:CN111880563A

    公开(公告)日:2020-11-03

    申请号:CN202010691504.8

    申请日:2020-07-17

    Abstract: 本发明公开了一种基于MADDPG的多无人机任务决策方法,将MADDPG算法引入到多无人机任务分配当中,首先根据多无人机实际作战环境,建立深度强化学习所需的二维作战环境模型,其次,建立多无人机作战环境中的防空导弹等多种威胁的数学描述,最后将多无人机的航迹、距离和战场的防御威胁作为约束条件,进行学习训练,进而得到多无人机任务决策模型。本方法采用了经验池和双网络结构,使得整个网络的运算与收敛速度大大提升,在无人机高速飞行的过程中,可以更快的得到结果,并且可以实现多无人机自主决策的目的,在未知的作战环境下也可以保证其任务决策的高效性。

    一种基于MADDPG的多无人机任务决策方法

    公开(公告)号:CN111880563B

    公开(公告)日:2022-07-15

    申请号:CN202010691504.8

    申请日:2020-07-17

    Abstract: 本发明公开了一种基于MADDPG的多无人机任务决策方法,将MADDPG算法引入到多无人机任务分配当中,首先根据多无人机实际作战环境,建立深度强化学习所需的二维作战环境模型,其次,建立多无人机作战环境中的防空导弹等多种威胁的数学描述,最后将多无人机的航迹、距离和战场的防御威胁作为约束条件,进行学习训练,进而得到多无人机任务决策模型。本方法采用了经验池和双网络结构,使得整个网络的运算与收敛速度大大提升,在无人机高速飞行的过程中,可以更快的得到结果,并且可以实现多无人机自主决策的目的,在未知的作战环境下也可以保证其任务决策的高效性。

    一种基于深度强化学习的无人机机动决策方法

    公开(公告)号:CN113093802A

    公开(公告)日:2021-07-09

    申请号:CN202110364100.2

    申请日:2021-04-03

    Abstract: 本发明公开了一种基于深度强化学习的无人机机动决策方法,首先构建无人机机动模型,然后描述无人机和敌机作战相对态势,再依据马尔科夫过程构建状态空间、动作空间和奖惩函数,接下来构建SAC算法模型结构,再定义SAC算法模型参数并进行训练,最后初始化无人机和敌机作战态势,使用训练完成算法进行机动决策。本发明能够有效地令无人机自主决策,无需人工参与,且具有很强的探索能力,能够高效的探索到最优策略。

Patent Agency Ranking