-
公开(公告)号:CN111867139B
公开(公告)日:2022-03-01
申请号:CN202010640594.8
申请日:2020-07-06
Applicant: 上海交通大学 , 北京东方计量测试研究所
Abstract: 本发明提供了一种基于Q学习的深度神经网络自适应退避策略实现方法及系统,包括:步骤1:对无人机网络中的网络节点和网络拓扑结构进行初始化,确定树形网络的簇头节点,对退避策略参数初始化后,广播至全网节点;步骤2:全网节点根据初始化后的退避策略参数来更新本地的退避策略;步骤3:簇头节点根据收到的更新信息进行统计,得出网络公平性指标并形成向量,保存进经验池中;步骤4:簇头节点从经验池中提取向量,输入到深度神经网络进行训练,得到真实Q值,将真实Q值与预测Q值进行对比;步骤5:返回步骤2继续执行,当学习策略趋于稳定符合预设条件时,输出退避策略。本发明提高了无人机节点在动态变化网络场景中的通信性能。
-
公开(公告)号:CN112637965A
公开(公告)日:2021-04-09
申请号:CN202011620219.3
申请日:2020-12-30
Applicant: 上海交通大学
IPC: H04W74/08
Abstract: 本发明提供了一种基于博弈的Q学习竞争窗口调整方法、系统及介质,包括:步骤1:初始化网络节点设置,进行自组网并建立路由表;步骤2:全网节点通过路由表获知一跳邻居节点个数,并广播至邻居节点;步骤3:计算节点在网络中的权重大小并进行广播;步骤4:根据网络差异性采取不同退避策略;步骤5:网络中各节点按照步骤4产生的竞争窗口状态集合进行Q学习,输出最优竞争窗口区间,并依此进行通信;步骤6:网络拓扑结构发生改变或业务负载产生较大波动后,重复执行步骤2‑5。本发明使用博弈论对网络场景进行分析,确定不同节点进行Q学习的状态集合,然后利用Q学习算法产生决策,更新竞争窗口区间,以达到优化整体网络性能的大小。
-
公开(公告)号:CN111867139A
公开(公告)日:2020-10-30
申请号:CN202010640594.8
申请日:2020-07-06
Applicant: 上海交通大学
Abstract: 本发明提供了一种基于Q学习的深度神经网络自适应退避策略实现方法及系统,包括:步骤1:对无人机网络中的网络节点和网络拓扑结构进行初始化,确定树形网络的簇头节点,对退避策略参数初始化后,广播至全网节点;步骤2:全网节点根据初始化后的退避策略参数来更新本地的退避策略;步骤3:簇头节点根据收到的更新信息进行统计,得出网络公平性指标并形成向量,保存进经验池中;步骤4:簇头节点从经验池中提取向量,输入到深度神经网络进行训练,得到真实Q值,将真实Q值与预测Q值进行对比;步骤5:返回步骤2继续执行,当学习策略趋于稳定符合预设条件时,输出退避策略。本发明提高了无人机节点在动态变化网络场景中的通信性能。
-
公开(公告)号:CN112637965B
公开(公告)日:2022-06-10
申请号:CN202011620219.3
申请日:2020-12-30
Applicant: 上海交通大学
IPC: H04W74/08
Abstract: 本发明提供了一种基于博弈的Q学习竞争窗口调整方法、系统及介质,包括:步骤1:初始化网络节点设置,进行自组网并建立路由表;步骤2:全网节点通过路由表获知一跳邻居节点个数,并广播至邻居节点;步骤3:计算节点在网络中的权重大小并进行广播;步骤4:根据网络差异性采取不同退避策略;步骤5:网络中各节点按照步骤4产生的竞争窗口状态集合进行Q学习,输出最优竞争窗口区间,并依此进行通信;步骤6:网络拓扑结构发生改变或业务负载产生较大波动后,重复执行步骤2‑5。本发明使用博弈论对网络场景进行分析,确定不同节点进行Q学习的状态集合,然后利用Q学习算法产生决策,更新竞争窗口区间,以达到优化整体网络性能的大小。
-
-
-