一种无人蜂群中无人机分布式协同任务分配方法

    公开(公告)号:CN119597016A

    公开(公告)日:2025-03-11

    申请号:CN202411731323.8

    申请日:2024-11-29

    Abstract: 本申请公开了一种无人蜂群中无人机分布式协同任务分配方法,包括:初始化无人机参数、任务参数和GCAA参数;创建无人机和任务结构体,将各参数统一封装入用于模拟仿真的无人机和任务结构体中;构建无人机间信息束通信,实现信息束间的及时更新;创建图窗基底以及无人机和任务元素,构建GCAA求解函数;判断无人机通信是否受限,若受限则先更新无人机联通方阵再调用GCAA求解函数计算无人机任务分配的GCAA解,若不受限则直接调用GCAA求解函数计算GCAA解,并记录无人机运动路径和GCAA运算时间,计算当前仿真轮次总效用;完成动态任务分配及效用计算。本发明有效保证了在每个无人机的效益尽可能大的基础上实现整体效用最优。

    一种基于并行自我博弈的空战机动方法

    公开(公告)号:CN113095481B

    公开(公告)日:2024-02-02

    申请号:CN202110364109.3

    申请日:2021-04-03

    Abstract: 本发明公开了一种基于并行自我博弈的空战机动方法,首先构建无人机机动模型,再构建红蓝运动态势获取模型,描述红蓝作战相对态势;然后依据马尔科夫过程构建红蓝双方状态空间、红双方动作空间和奖惩函数,接下来构建基于SAC算法的机动决策模型结构,通过空战对抗实现并行自我博弈训练SAC算法,最后测试训练得到的网络,显示作战轨迹并统计作战成功率。本发明能够有效提升敌我对抗水平,增大决策模型作战成功率。

    一种基于三支决策的威胁评估方法

    公开(公告)号:CN110232518B

    公开(公告)日:2023-07-14

    申请号:CN201910501071.2

    申请日:2019-06-11

    Abstract: 本发明提供了一种基于三支决策的威胁评估方法,确定雷达探测的目标特征信息,得到目标信息矩阵,根据目标的信息得到三支决策中的目标评价函数,采用模拟退火算法选取三支决策的最优阈值,根据最优阈值对威胁度进行三支决策。本发明将三支决策理论引入到目标威胁评估中,成功将目标划分到高威胁,低威胁以及边界域三个域中,决策者可根据分成的三个域,有针对性地对目标做出决策,而且相对于传统方法仅对目标威胁度进行排序时,决策者进行指挥决策,本发明中对目标的系统分类更有利于决策者快速做出指挥判断。与传统的二支决策相比较,三支决策中边界域的引入也在一定程度上降低了仅对高威胁和低威胁两个域做出错误决策的可能性。

    一种基于迁移学习改进的PMADDPG多无人机任务决策方法

    公开(公告)号:CN111859541B

    公开(公告)日:2022-10-14

    申请号:CN202010691509.0

    申请日:2020-07-17

    Abstract: 本发明公开了一种基于迁移学习改进的PMADDPG多无人机任务决策方法。首先在多无人机实际作战环境背景下,针对环境中的防空导弹、雷达等威胁进行合理的数学建模,然后创建多个不同的二维作战环境模型,并且设计约束条件,依次对多个作战环境进行学习和训练,进而得到最终的多无人机任务分配模型。本发明方法克服了已有技术中只能在已知或静态作战环境下进行任务决策的缺陷,在未知的作战环境下,也可以能够高效的进行决策,实现无人机的任务,大大保障了无人机群在未知作战环境中的生存能力。

    一种基于元强化学习并行训练算法的无人机飞行决策方法

    公开(公告)号:CN114895697A

    公开(公告)日:2022-08-12

    申请号:CN202210594911.6

    申请日:2022-05-27

    Abstract: 本发明提供了一种基于元强化学习并行训练算法的无人机飞行决策方法,首先构建无人机飞行控制模型;然后依据马尔科夫决策过程构建无人机飞行决策的状态空间、动作空间和奖励函数;接下来构建存放元强化学习算法训练样本数据的多任务经验池;再定义元强化学习算法参数并在多个环境并行训练实现无人机元强化学习决策模型;最后随机初始化新的飞行环境和无人机状态,测试基于元强化学习算法的无人机飞行决策模型,评价飞行决策性能。本发明通过在多个环境中对策略进行训练以解决SAC算法泛化性能不足的问题,能够整体优化无人机飞行决策策略,在新的环境中经过少步训练便可以收敛,能够有效提升策略的泛化能力和通用性。

    一种基于人工势场法和MADDPG的多无人机运动规划方法

    公开(公告)号:CN112947562A

    公开(公告)日:2021-06-11

    申请号:CN202110183956.X

    申请日:2021-02-10

    Abstract: 本发明公开了一种基于人工势场法和MADDPG的多无人机运动规划方法,该方法在原有多无人机探索环境经验的基础上,增加了通过人工势场法将多无人机成功规划至目标的高质量经验,在通过MADDPG算法训练时,以一定的概率分别从探索环境经验和高质量经验中采集样本,以每个无人机的自身状态信息和环境信息作为神经网络的输入,以多无人机的速度作为输出,完成运动规划策略的训练,实现多无人机在复杂环境下自主避障并安全快速地到达目标位置。本发明方法充分地学习到多无人机在不同状态和不同动作时的Q值,提高了策略的鲁棒性,训练出适应性更强和灵活性更高的优秀策略,在多无人机协同运动规划的场景中有很好的应用前景。

    一种基于MADDPG的多无人机任务决策方法

    公开(公告)号:CN111880563A

    公开(公告)日:2020-11-03

    申请号:CN202010691504.8

    申请日:2020-07-17

    Abstract: 本发明公开了一种基于MADDPG的多无人机任务决策方法,将MADDPG算法引入到多无人机任务分配当中,首先根据多无人机实际作战环境,建立深度强化学习所需的二维作战环境模型,其次,建立多无人机作战环境中的防空导弹等多种威胁的数学描述,最后将多无人机的航迹、距离和战场的防御威胁作为约束条件,进行学习训练,进而得到多无人机任务决策模型。本方法采用了经验池和双网络结构,使得整个网络的运算与收敛速度大大提升,在无人机高速飞行的过程中,可以更快的得到结果,并且可以实现多无人机自主决策的目的,在未知的作战环境下也可以保证其任务决策的高效性。

    一种基于DDPG迁移学习的无人机机动目标跟踪方法

    公开(公告)号:CN111667513A

    公开(公告)日:2020-09-15

    申请号:CN202010486053.4

    申请日:2020-06-01

    Abstract: 本发明涉及一种基于DDPG迁移学习的无人机机动目标跟踪方法,通过对任务分解,初始化环境状态,神经网络参数等其他超参数,对神经网络进行训练。回合起始时,无人机执行行动改变速度和航向角,得到新的状态,并将每一回合的经验保存于经验池中作为学习样本,不断迭代更新神经网络的参数。当训练完成时,保存子任务训练好的神经网络参数,并迁移至下一任务场景下的无人机机动目标跟踪网络中,直到最终任务完成。

    一种基于自编码器的飞机油门控制方法

    公开(公告)号:CN109866931A

    公开(公告)日:2019-06-11

    申请号:CN201910196261.8

    申请日:2019-03-15

    Abstract: 本发明提供了一种基于自编码器的飞机油门控制方法,将载机参数经过归一化处理,再将归一化处理后的数据输入至飞机油门控制网络模型当中,数据先通过自编码器的运算,从高维数据中提取低维数据特征,用低维的数据可以对高维数据进行特征表达,然后用提取出的低维数据作为全连接层的输入,进而得到飞机油门系数。再根据得到的飞机油门系数对飞机油门进行增加或减小的操作。本发明有效的降低了数据量与整个网络的参数,使得整个网络的运算与收敛速度大大提升,可以更快的得到结果,并且通过智能化、科学化的方式建立提取飞机各数据间联系的网络,大大缩减了现有技术中的计算步骤,保证在极短时间内快速得到结果的同时,极大的提高了准确率。

Patent Agency Ranking