-
公开(公告)号:CN114980178B
公开(公告)日:2024-08-02
申请号:CN202210630724.9
申请日:2022-06-06
Applicant: 厦门大学马来西亚分校
IPC: H04W24/02 , G06N3/0442 , G06N3/092 , G06N20/00 , H04B13/02
Abstract: 本发明提出了一种基于强化学习的分布式PD‑NOMA水声网络通信方法及系统,方法包括:构建节点决策框架,节点决策框架包括两个并联的DQN网络;将全体节点的当前状态分别输入到两个并联的DQN网络中,进行群体分组和功率控制的动作选择;将每个节点获得的群体分组和功率控制的结果发送至CH,CH根据预设的奖励机制回馈不同的奖励;将每个节点的“状态”、“动作”、“奖励”以及“下一状态”作为经验样本存储到经验池中;以及采用经验优选回放算法不断从经验池中抽取经验样本以训练DQN网络。节点可以自主进行分组选择、功率控制,适应水声网络动态变化,以分布式方式获得网络性能的次优解。可以提高网络通信效率,可达高吞吐量、低耗能、低时延。
-
公开(公告)号:CN114980178A
公开(公告)日:2022-08-30
申请号:CN202210630724.9
申请日:2022-06-06
Applicant: 厦门大学马来西亚分校
Abstract: 本发明提出了一种基于强化学习的分布式PD‑NOMA水声网络通信方法及系统,方法包括:构建节点决策框架,节点决策框架包括两个并联的DQN网络;将全体节点的当前状态分别输入到两个并联的DQN网络中,进行群体分组和功率控制的动作选择;将每个节点获得的群体分组和功率控制的结果发送至CH,CH根据预设的奖励机制回馈不同的奖励;将每个节点的“状态”、“动作”、“奖励”以及“下一状态”作为经验样本存储到经验池中;以及采用经验优选回放算法不断从经验池中抽取经验样本以训练DQN网络。节点可以自主进行分组选择、功率控制,适应水声网络动态变化,以分布式方式获得网络性能的次优解。可以提高网络通信效率,可达高吞吐量、低耗能、低时延。
-