-
公开(公告)号:CN112492691B
公开(公告)日:2024-03-26
申请号:CN202011344394.4
申请日:2020-11-26
Applicant: 辽宁工程技术大学
IPC: H04W72/044 , H04W72/50 , G06N3/045 , G06N3/092
Abstract: 本发明公开了一种深度确定性策略梯度算法的下行NOMA系统中功率分配方法,方法采用双神经网络结构及经验池回放机制,可以有效处理涉及大规模状态‑动作空间的问题,且降低训练样本之间的相关性,同时,采取确定性策略来选择动作,可以在连续的动作空间中选择动作。算法使用状态信息作为神经网络的输入,并对状态空间、动作空间及奖赏函数根据仿真下行NOMA系统情境进行了相应的设计,其中将上一时刻的信干噪比信息及速率信息作为当前时刻状态信息的组成部分,可以使得智能体更加有效的学习并利用所学习到信息来改进行为策略,经过多次迭代后,得到最优的功率分配策略。该方法可以有效解决下行NOMA系统中多用户的功率分配问题,且在不同的用户数量及基站的发射功率级别下均具备良好的泛化性能,可以有效提升功率分配的合理性,同时运算耗时少,有效提高功率分配的效率。
-
公开(公告)号:CN112492686A
公开(公告)日:2021-03-12
申请号:CN202011268978.8
申请日:2020-11-13
Applicant: 辽宁工程技术大学
Abstract: 本发明公开了一种基于深度双Q网络的蜂窝网络中功率分配算法,算法采用双神经网络结构,有效解决传统强化学习算法无法处理大规模状态‑动作空间的问题,并降低两个神经网络之间的相关性,解决值函数过估计问题。算法使用状态信息作为神经网络的输入,并对状态、动作及奖赏函数根据仿真蜂窝网络情境分别进行设计,其中将上一时刻的干扰信息及速率信息作为当前时刻状态信息的组成部分,使智能体可以更加有效的进行自主学习,经过多次迭代后,得到最优的功率分配策略。该方法可以有效解决蜂窝网络中的功率分配问题,且在不同用户数量及小区数量下均具备良好的泛化性能,可以有效提升功率分配的合理性,同时运行耗时少,大大提高功率分配的效率。
-
公开(公告)号:CN112381290A
公开(公告)日:2021-02-19
申请号:CN202011266874.3
申请日:2020-11-13
Applicant: 辽宁工程技术大学
Abstract: 本发明公开了一种随机森林与灰狼优化的煤体瓦斯含量预测方法,该算法包含两个阶段,分别为随机森立预测模型的构建和灰狼优化算法的使用,目的使用灰狼优化算法来对随机森林预测模型相关参数进行最优值的选择确定,从而增强媒体瓦斯含量预测模型的识别和预测效果。其中瓦斯基础数据经过缺失值填充及特征选取两个步骤进行初始化。不同地域的煤体地质特征不同,特征选取可以对不同地域的矿井煤体数据进行针对性选取,从而增强瓦斯含量预测的精准度,因此该方法适用于不同地域的矿井。该方法可以实现瓦斯含量的有效预测,提高了工作效率,同时可以指导煤炭开采过程中瓦斯灾害预防措施的实施,对于瓦斯灾害事故的防治与煤炭的精准开采具有重要意义。
-
公开(公告)号:CN112492686B
公开(公告)日:2023-10-13
申请号:CN202011268978.8
申请日:2020-11-13
Applicant: 辽宁工程技术大学
IPC: H04W72/044 , H04W72/541 , H04W72/542 , G06N3/045
Abstract: 本发明公开了一种基于深度双Q网络的蜂窝网络中功率分配算法,算法采用双神经网络结构,有效解决传统强化学习算法无法处理大规模状态‑动作空间的问题,并降低两个神经网络之间的相关性,解决值函数过估计问题。算法使用状态信息作为神经网络的输入,并对状态、动作及奖赏函数根据仿真蜂窝网络情境分别进行设计,其中将上一时刻的干扰信息及速率信息作为当前时刻状态信息的组成部分,使智能体可以更加有效的进行自主学习,经过多次迭代后,得到最优的功率分配策略。该方法可以有效解决蜂窝网络中的功率分配问题,且在不同用户数量及小区数量下均具备良好的泛化性能,可以有效提升功率分配的合理性,同时运行耗时少,大大提高功率分配的效率。
-
公开(公告)号:CN112492691A
公开(公告)日:2021-03-12
申请号:CN202011344394.4
申请日:2020-11-26
Applicant: 辽宁工程技术大学
Abstract: 本发明公开了一种深度确定性策略梯度算法的下行NOMA系统中功率分配方法,方法采用双神经网络结构及经验池回放机制,可以有效处理涉及大规模状态‑动作空间的问题,且降低训练样本之间的相关性,同时,采取确定性策略来选择动作,可以在连续的动作空间中选择动作。算法使用状态信息作为神经网络的输入,并对状态空间、动作空间及奖赏函数根据仿真下行NOMA系统情境进行了相应的设计,其中将上一时刻的信干噪比信息及速率信息作为当前时刻状态信息的组成部分,可以使得智能体更加有效的学习并利用所学习到信息来改进行为策略,经过多次迭代后,得到最优的功率分配策略。该方法可以有效解决下行NOMA系统中多用户的功率分配问题,且在不同的用户数量及基站的发射功率级别下均具备良好的泛化性能,可以有效提升功率分配的合理性,同时运算耗时少,有效提高功率分配的效率。
-
-
-
-