一种基于深度强化学习的智能兵棋推演决策方法

    公开(公告)号:CN116596343A

    公开(公告)日:2023-08-15

    申请号:CN202310612393.0

    申请日:2023-05-26

    Abstract: 本发明公开了一种基于深度强化学习的智能兵棋推演决策方法,包括:构建兵棋推演环境中智能体的状态空间;构建适用于兵棋智能推演环境下低优势策略‑价值网络架构;构建作战场景判断模型,作为环境奖励来源依据;在兵棋推演系统中搭建智能决策系统;对所述步骤1至4得到的智能体状态空间、低优势策略‑价值网络架构、作战场景判断模型和智能决策系统所构成的深度神经网络进行训练,得到基于深度强化学习的智能兵棋推演决策模型;在所述智能兵棋推演决策模型中,对当前作战场景状态下的战术兵棋智能体作战决策进行求解。通过上述方式,本发明能够改进战术兵棋智能体在作战推演中产生作战决策的效率,加快作战策略网络训练过程的收敛速度。

    基于好奇心机制下的多智能体经验探索协同方法

    公开(公告)号:CN119150914A

    公开(公告)日:2024-12-17

    申请号:CN202411006183.8

    申请日:2024-07-25

    Abstract: 本发明公开了基于好奇心机制下的多智能体经验探索协同方法,包括构建多智能体决策架构;构建适用于多智能体决策架构的好奇心机制;构建适用于多智能体决策架构的经验探索组件;构建经验回放池与状态回放池;适配多智能体协作对抗环境;对得到的基于好奇心机制下的多智能体经验探索决策架构所构成的深度神经网络进行训练,得到多智能体经验探索协同策略模型;在多智能体经验探索协同策略模型中,对当前对抗场景下的多智能体协作对抗策略进行求解。通过上述方式,本发明能够平衡多智能体算法在训练时探索与利用的过程,缓解多智能体对抗环境中奖励稀疏性所带来的影响,帮助多智能体进行有经验地探索,为对抗寻找的最优策略的同时提高了学习的效率。

    一种基于态势感知交互的兵棋智能体辅助决策方法

    公开(公告)号:CN118966356A

    公开(公告)日:2024-11-15

    申请号:CN202411012209.X

    申请日:2024-07-26

    Abstract: 本发明公开了一种基于态势感知交互的兵棋智能体辅助决策方法,具体步骤包括:获取兵棋智能体所处战场环境的态势感知数据;根据军事要素理论对态势感知数据进行筛选;构建决策动作模块,输入战场态势数据,输出决策动作概率;统计当前作战场景的战场关键数据;将决策动作概率与统计的战场关键数据进行权重集成,并根据智能体编号进行分类;将权重集成数据作为决策辅助信息输入到上层智能体进行决策动作的评判和筛选,对下层智能体进行反馈,生成最优决策动作;通过上述步骤,结合智能兵棋推演系统本发明能够为兵棋智能体提供决策支持,提高智能体决策的效率和准确性。

Patent Agency Ranking