-
公开(公告)号:CN111291890A
公开(公告)日:2020-06-16
申请号:CN202010399728.1
申请日:2020-05-13
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种博弈策略优化方法、系统及存储介质,该博弈策略优化方法包括建立基于最大熵的策略递度算法步骤和多智能体最优反应策略求解步骤。本发明的有益效果是:本发明采用中心化训练和分散式执行的方式,提高动作估值网络的准确性,同时引入了全局基线奖励来更准确地衡量智能体的动作收益,以此来解决人博弈中的信用分配问题。同时引入了最大熵方法来进行策略评估,平衡了策略优化过程中的探索与利用。
-
公开(公告)号:CN111291890B
公开(公告)日:2021-01-01
申请号:CN202010399728.1
申请日:2020-05-13
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种博弈策略优化方法、系统及存储介质,该博弈策略优化方法包括建立基于最大熵的策略递度算法步骤和多智能体最优反应策略求解步骤。本发明的有益效果是:本发明采用中心化训练和分散式执行的方式,提高动作估值网络的准确性,同时引入了全局基线奖励来更准确地衡量智能体的动作收益,以此来解决人博弈中的信用分配问题。同时引入了最大熵方法来进行策略评估,平衡了策略优化过程中的探索与利用。
-
公开(公告)号:CN110404264B
公开(公告)日:2022-11-01
申请号:CN201910676407.9
申请日:2019-07-25
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明提供了一种基于虚拟自我对局的多人非完备信息博弈策略求解方法、装置、系统及存储介质,该方法包括:针对二人博弈情况,使用多类别逻辑回归和蓄水池抽样实现了平均策略的生成,使用DQN和环形缓冲记忆实现了最优反应策略的生成;针对多人博弈情况,使用多智能体近端策略优化算法MAPPO实现最优反应策略,同时使用多智能体NFSP调节智能体的训练。本发明的有益效果是:本发明引入了虚拟自我对局的算法框架,将德州扑克策略优化过程分为最优反应策略学习和平均策略学习两个部分,并分别用模仿学习和深度强化学习来实现,设计出了更为通用的多智能体最优策略学习方法。
-
公开(公告)号:CN110404264A
公开(公告)日:2019-11-05
申请号:CN201910676407.9
申请日:2019-07-25
Applicant: 哈尔滨工业大学(深圳)
Abstract: 本发明提供了一种基于虚拟自我对局的多人非完备信息博弈策略求解方法、装置、系统及存储介质,该方法包括:针对二人博弈情况,使用多类别逻辑回归和蓄水池抽样实现了平均策略的生成,使用DQN和环形缓冲记忆实现了最优反应策略的生成;针对多人博弈情况,使用多智能体近端策略优化算法MAPPO实现最优反应策略,同时使用多智能体NFSP调节智能体的训练。本发明的有益效果是:本发明引入了虚拟自我对局的算法框架,将德州扑克策略优化过程分为最优反应策略学习和平均策略学习两个部分,并分别用模仿学习和深度强化学习来实现,设计出了更为通用的多智能体最优策略学习方法。
-
-
-