-
公开(公告)号:CN116596343A
公开(公告)日:2023-08-15
申请号:CN202310612393.0
申请日:2023-05-26
Applicant: 西安理工大学
IPC: G06Q10/0637 , G06Q10/063 , G06F30/27 , G06F18/241 , G06N3/0464 , G06N3/082 , G06N3/092 , G06N3/047
Abstract: 本发明公开了一种基于深度强化学习的智能兵棋推演决策方法,包括:构建兵棋推演环境中智能体的状态空间;构建适用于兵棋智能推演环境下低优势策略‑价值网络架构;构建作战场景判断模型,作为环境奖励来源依据;在兵棋推演系统中搭建智能决策系统;对所述步骤1至4得到的智能体状态空间、低优势策略‑价值网络架构、作战场景判断模型和智能决策系统所构成的深度神经网络进行训练,得到基于深度强化学习的智能兵棋推演决策模型;在所述智能兵棋推演决策模型中,对当前作战场景状态下的战术兵棋智能体作战决策进行求解。通过上述方式,本发明能够改进战术兵棋智能体在作战推演中产生作战决策的效率,加快作战策略网络训练过程的收敛速度。
-
公开(公告)号:CN119961528A
公开(公告)日:2025-05-09
申请号:CN202510046641.9
申请日:2025-01-13
Applicant: 西安理工大学
IPC: G06F16/9536 , G06Q50/00 , G06F17/16 , G06N3/0895 , G06N3/0464
Abstract: 本发明公开发明了一种基于信息增强的半监督学习的社区检测方法,包括:获取待检测社区的数据集并进行数据的预处理,使用PPGCN作为图嵌入编码器,从而生成更丰富的节点特征表示;本发明使用了多样性阈值驱动的顺序嵌入的社区检测方法,避免仅使用相似度约束带来的社区内部节点的同质化;设计了优化社区检测的强化学习方法SubOpt‑RL,使用KAN模型作为决策网络并且改进了奖励函数。通过上述方式,本发明结合PPGCN的多步传播捕捉节点之间的长距离依赖关系,高效地聚合邻域信息,多样性约束增强了社区间的区分度,强化学习进一步优化了过程,能够提升数据集上的社区检测效果。
-
公开(公告)号:CN119150914A
公开(公告)日:2024-12-17
申请号:CN202411006183.8
申请日:2024-07-25
Applicant: 西安理工大学
IPC: G06N3/008 , G06N3/084 , G06N3/0464
Abstract: 本发明公开了基于好奇心机制下的多智能体经验探索协同方法,包括构建多智能体决策架构;构建适用于多智能体决策架构的好奇心机制;构建适用于多智能体决策架构的经验探索组件;构建经验回放池与状态回放池;适配多智能体协作对抗环境;对得到的基于好奇心机制下的多智能体经验探索决策架构所构成的深度神经网络进行训练,得到多智能体经验探索协同策略模型;在多智能体经验探索协同策略模型中,对当前对抗场景下的多智能体协作对抗策略进行求解。通过上述方式,本发明能够平衡多智能体算法在训练时探索与利用的过程,缓解多智能体对抗环境中奖励稀疏性所带来的影响,帮助多智能体进行有经验地探索,为对抗寻找的最优策略的同时提高了学习的效率。
-
公开(公告)号:CN118966356A
公开(公告)日:2024-11-15
申请号:CN202411012209.X
申请日:2024-07-26
Applicant: 西安理工大学
IPC: G06N5/04 , G06N3/0464 , G06N3/084 , G06N3/092 , G06F18/2415 , G06F18/27
Abstract: 本发明公开了一种基于态势感知交互的兵棋智能体辅助决策方法,具体步骤包括:获取兵棋智能体所处战场环境的态势感知数据;根据军事要素理论对态势感知数据进行筛选;构建决策动作模块,输入战场态势数据,输出决策动作概率;统计当前作战场景的战场关键数据;将决策动作概率与统计的战场关键数据进行权重集成,并根据智能体编号进行分类;将权重集成数据作为决策辅助信息输入到上层智能体进行决策动作的评判和筛选,对下层智能体进行反馈,生成最优决策动作;通过上述步骤,结合智能兵棋推演系统本发明能够为兵棋智能体提供决策支持,提高智能体决策的效率和准确性。
-
-
-