-
公开(公告)号:CN112153616A
公开(公告)日:2020-12-29
申请号:CN202010964461.6
申请日:2020-09-15
Applicant: 南京信息工程大学滨江学院
IPC: H04W4/70 , H04B17/345 , H04B17/373 , H04B17/382 , H04W4/02 , H04W4/021 , G06N3/04 , G06K9/62
Abstract: 本发明公开一种基于深度学习的毫米波通信系统中的功率控制方法,首先,收集环境内D2D设备和蜂窝设备的地理位置信息,构造两个大小为M×M的密度网格矩阵来表示链路收发机的位置;然后,收集训练数据集,构建卷积神经网络框架,并初始化神经网络权重;最后,将训练数据集输入至神经网络中,构建神经网络的输出和标签之间的MSE作为损失函数,并选择一个梯度下降算法优化神经网络的权重;完成训练并保存神经网络。本发明克服了毫米波网络环境中蜂窝设备和D2D设备的干扰问题,用卷积神经网络对收发机的相对位置进行特征提取,以监督学习的方式逼近传统算法来学习设备位置到最优功率分配的映射关系。
-
公开(公告)号:CN112153615A
公开(公告)日:2020-12-29
申请号:CN202010964458.4
申请日:2020-09-15
Applicant: 南京信息工程大学滨江学院
Abstract: 本发明公开一种多小区蜂窝D2D设备中基于深度学习的用户关联方法,首先,收集环境内终端设备的信道增益信息;其次,运用穷举法得到相应信道增益样本下的最优蜂窝用户关联策略,收集训练数据集;然后,构建卷积神经网络框架,初始化神经网络参数;最后,训练该神经网络:将训练数据集输入至神经网络,构建神经网络的输出和标签之间的MSE作为损失函数,并选择随机梯度下降算法对神经网络的权重进行更新;当损失函数小于预设值或达到迭代次数时即认为神经网络训练完成,保存神经网络。本发明克服了环境中D2D设备对蜂窝设备造成的干扰问题,用卷积神经网络以监督学习的方式逼近传统算法来学习信道增益到最优用户关联策略之间的映射关系。
-
公开(公告)号:CN113518457B
公开(公告)日:2024-06-07
申请号:CN202110437441.8
申请日:2021-04-22
Applicant: 南京信息工程大学滨江学院
IPC: H04W72/044 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了基于一维深度卷积神经网络的功率分配策略,属于通信系统领域,针对现有基于深度神经网络的功率分配算法的不足,提供一种基于一维深度卷积神经网络的功率控制策略,既能实现在线决策,又能对传统算法达到一个很好的性能逼近,其网络预测能力要优于目前的基于全连接结构的深度神经网络。本发明研究了用一维卷积神经网络替代传统算法的资源分配策略,通过监督学习的方式,学习基于传统算法得到的功率分配效果,实现快速可靠的在线决策,与传统的基于深度学习的功率分配算法相比,克服了学习能力有限的缺点,其预测能力更高。
-
公开(公告)号:CN112153616B
公开(公告)日:2022-07-08
申请号:CN202010964461.6
申请日:2020-09-15
Applicant: 南京信息工程大学滨江学院 , 中科怡海高新技术发展有限公司
IPC: H04W4/70 , H04B17/345 , H04B17/373 , H04B17/382 , H04W4/02 , H04W4/021 , G06N3/04 , G06K9/62
Abstract: 本发明公开一种基于深度学习的毫米波通信系统中的功率控制方法,首先,收集环境内D2D设备和蜂窝设备的地理位置信息,构造两个大小为M×M的密度网格矩阵来表示链路收发机的位置;然后,收集训练数据集,构建卷积神经网络框架,并初始化神经网络权重;最后,将训练数据集输入至神经网络中,构建神经网络的输出和标签之间的MSE作为损失函数,并选择一个梯度下降算法优化神经网络的权重;完成训练并保存神经网络。本发明克服了毫米波网络环境中蜂窝设备和D2D设备的干扰问题,用卷积神经网络对收发机的相对位置进行特征提取,以监督学习的方式逼近传统算法来学习设备位置到最优功率分配的映射关系。
-
公开(公告)号:CN113518457A
公开(公告)日:2021-10-19
申请号:CN202110437441.8
申请日:2021-04-22
Applicant: 南京信息工程大学滨江学院
Abstract: 本发明公开了基于一维深度卷积神经网络的功率分配策略,属于通信系统领域,针对现有基于深度神经网络的功率分配算法的不足,提供一种基于一维深度卷积神经网络的功率控制策略,既能实现在线决策,又能对传统算法达到一个很好的性能逼近,其网络预测能力要优于目前的基于全连接结构的深度神经网络。本发明研究了用一维卷积神经网络替代传统算法的资源分配策略,通过监督学习的方式,学习基于传统算法得到的功率分配效果,实现快速可靠的在线决策,与传统的基于深度学习的功率分配算法相比,克服了学习能力有限的缺点,其预测能力更高。
-
公开(公告)号:CN113453358A
公开(公告)日:2021-09-28
申请号:CN202110654301.6
申请日:2021-06-11
Applicant: 南京信息工程大学滨江学院 , 中科怡海高新技术发展江苏股份公司
IPC: H04W72/04 , H04W72/08 , H04B17/382
Abstract: 本发明公开了一种无线携能D2D网络的联合资源分配方法,属于通信系统技术领域,本发明采用强化学习框架,智能地分配资源块以及功率分流比例,在基站和D2D最大发射功率以及蜂窝用户最低速率要求的约束下,最大化D2D能效,解决了传统算法无法处理复杂通信环境的困境,通信系统中D2D用户通过采用多智能体强化学习框架,对资源块和功率分流比例进行分配,解决以能效为目标函数的非凸问题。该发明可以提高D2D通信的总能效,实现更快的收敛速度。
-
公开(公告)号:CN112153617A
公开(公告)日:2020-12-29
申请号:CN202010964851.3
申请日:2020-09-15
Applicant: 南京信息工程大学滨江学院
IPC: H04W4/70 , H04B17/382 , G06N3/04 , G06K9/62
Abstract: 本发明公开一种基于集成神经网络的终端设备传输功率的控制方法,收集D2D链路的信道功率增益样本;并输入到SPCA算法,得到相应样本下的最优功率分配策略;搭建深度神经网络和卷积神经网络,并初始化神经网络权重;将训练数据集输入至神经网络,构建神经网络的输出和标签之间的MSE作为损失函数,并对神经网络的权重进行更新;当损失函数小于预设值或达到迭代次数时即认为神经网络训练完成,保存神经网络;构建选择器,选择并输出具有更高性能的分配策略。本发明克服了深度神经网络对大规模网络学习能力弱和卷积神经网络对小规模网络的局部特征提取的有限性,用集成学习的思想,将两个网络集成起来,使其能适应不同规模网络实时的功率分配需求。
-
公开(公告)号:CN112468568B
公开(公告)日:2024-04-23
申请号:CN202011318708.3
申请日:2020-11-23
Applicant: 南京信息工程大学滨江学院 , 中科怡海高新技术发展有限公司
IPC: H04L67/10 , H04W4/70 , H04W28/084 , H04W40/22
Abstract: 本发明公开了一种移动边缘计算网络的任务中继卸载方法,包括集成了毫米波和频率低于6GHz电磁波(Sub‑6GHz)的移动边缘计算网络,Sub‑6GHz实现用户设备的全覆盖,设置基站和用户设备预先执行了波束训练和对齐机制,因此能够在建立数据连接时配置适当的波束。由于每个用户设备都是独立的个体,因此,采用平均场博弈MFG的框架最大程度的减少功耗,针对MFG优化方法的限制,将公式化的MFG简化为马尔可夫决策过程MDP,利用MDP优化问题求得MFG的均衡解,即通过采用强化学习框架,最大化CUs的价值函数,在强化学习的指导下得到均衡解,实现任务的成功卸载,并减少系统能耗。
-
公开(公告)号:CN112153615B
公开(公告)日:2022-07-12
申请号:CN202010964458.4
申请日:2020-09-15
Applicant: 南京信息工程大学滨江学院 , 中科怡海高新技术发展有限公司
Abstract: 本发明公开一种多小区蜂窝D2D设备中基于深度学习的用户关联方法,首先,收集环境内终端设备的信道增益信息;其次,运用穷举法得到相应信道增益样本下的最优蜂窝用户关联策略,收集训练数据集;然后,构建卷积神经网络框架,初始化神经网络参数;最后,训练该神经网络:将训练数据集输入至神经网络,构建神经网络的输出和标签之间的MSE作为损失函数,并选择随机梯度下降算法对神经网络的权重进行更新;当损失函数小于预设值或达到迭代次数时即认为神经网络训练完成,保存神经网络。本发明克服了环境中D2D设备对蜂窝设备造成的干扰问题,用卷积神经网络以监督学习的方式逼近传统算法来学习信道增益到最优用户关联策略之间的映射关系。
-
公开(公告)号:CN114531726A
公开(公告)日:2022-05-24
申请号:CN202110738351.2
申请日:2021-06-30
Applicant: 南京信息工程大学滨江学院 , 中科怡海高新技术发展江苏股份公司
Abstract: 本发明公开了基于密集无线网络的功率控制策略,属于通信系统物理层技术领域,包括如下步骤:1)收集训练数据集;2)确定训练集和测试集的分割比例;3)构建DRSN框架,并初始化神经网络权重;4)将训练数据集输入至神经网络构建神经网络的输出和标签之间的MSE作为损失函数,并选择随机梯度下降算法对神经网络的权重进行更新;5)当损失函数小于预设值或达到迭代次数时即认为神经网络训练完成,保存神经网络;6)测试阶段由测试集作为输入数据测试性能。本发明克服了深度神经网络对大规模网络学习能力弱,极大程度上防止了“梯度消失”和“梯度爆炸”现象的出现。
-
-
-
-
-
-
-
-
-