-
公开(公告)号:CN112737655B
公开(公告)日:2022-08-02
申请号:CN202011490400.7
申请日:2020-12-16
Applicant: 北京邮电大学
IPC: H04B7/06
Abstract: 本发明提供一种基于智能反射面的通信方法、系统及装置,应用于通信系统,包括:获取智能反射面中相邻反射元件之间的距离以及待发送射频信号的状态信息,状态信息包括;射频信号的波长、射频信号达到以及离开智能反射面时,与智能反射面所在平面形成的水平角以及垂直角;根据智能反射面中相邻反射元件之间的距离以及待发送射频信号的状态信息,确定第一用户端传输射频信号至第二用户端时,最小中断概率下对应的智能反射面相位,最小中断概率根据第一用户端与第二用户端之间的信号传输模式确定;将确定的相位发送至智能反射面,使得智能反射面根据相位进行相位调整。通过实施本发明,减小第一用户端传输给第二用户端时的中断概率,提高系统可靠性。
-
公开(公告)号:CN114513825B
公开(公告)日:2022-07-29
申请号:CN202210402621.7
申请日:2022-04-18
Applicant: 北京邮电大学
Abstract: 本发明提供一种异构网络的切换方法、装置和电子设备,其中方法包括:在所述目标终端满足网络切换条件的情况下,确定从各第二类型网络可获取的最大下行数据速率;确定各第二类型网络的阻塞概率;基于所述最大下行数据速率和所述阻塞概率确定对应第二类型网络的吞吐量;基于各第二类型网络的吞吐量确定所述目标终端待切换的第二类型目标网络,从而实现了目标终端对各第二类型网络在单位时间内成功传送数据的数量的感知,帮助每个目标终端选择低时延高可靠性的网络,从而为多用户提供较好的服务质量。
-
公开(公告)号:CN111669787A
公开(公告)日:2020-09-15
申请号:CN202010507193.5
申请日:2020-06-05
Applicant: 国网上海市电力公司 , 北京中电飞华通信有限公司 , 国网信息通信产业集团有限公司 , 北京邮电大学 , 国网陕西省电力公司 , 中国信息通信研究院 , 国家电网有限公司
Abstract: 本说明书一个或多个实施例提供一种基于时延敏感网络切片的资源分配方法及装置,在网络切片的资源利用率较低或者较高时,对网络切片的资源进行调整,同时考虑传输时延的约束,得到最佳的物理节点和物理链路。本公开同时考虑传输时延和资源利用率对网络切片的资源的影响,保证在网络切片传输时延较低的情况下,提高网络切片的资源利用率。
-
公开(公告)号:CN106211341B
公开(公告)日:2020-02-14
申请号:CN201610571215.8
申请日:2016-07-19
Applicant: 北京邮电大学
IPC: H04W72/04
Abstract: 本发明实施例提供了一种无线中继系统中的带宽分配方法和装置。该方法应用于宏基站,该方法包括:当接收到中继设备服务的终端发出的数据请求时,获取当前场景参数;根据当前场景参数,确定当前带宽分配周期内的带宽预分配方案;根据带宽预分配方案,计算无线中继系统在当前带宽分配周期内的吞吐量:判断该吞吐量是否大于预设的吞吐量阈值;若是,在当前带宽分配周期内,按照带宽预分配方案,对宏基站的带宽进行分配,否则,按照常规带宽分配方案,对宏基站的带宽进行分配。可以看出,本发明实施例可以有效地提高无线中继系统的吞吐量,并缩短无线中继系统对数据请求的响应时间,从而较好的满足了用户需求。
-
公开(公告)号:CN105208599A
公开(公告)日:2015-12-30
申请号:CN201510535846.X
申请日:2015-08-27
Applicant: 北京邮电大学
CPC classification number: Y02D70/14 , H04W28/08 , H04W36/0094 , H04W36/08 , H04W36/22
Abstract: 本发明实施例提供一种蜂窝网与无线局域网间的负载均衡方法。该方法包括:基站在基站服务的第一UE中,获取使得基站能效不降的多个第二UE的标识以及与第二UE具有对应关系的WLAN AP的标识,基站向各与第二UE具有对应关系的WLAN AP发送第二UE的标识;基站接收各WLAN AP发送的第三UE的标识,第三UE为各WLAN AP在第二UE中确定的、从基站切换到WLAN AP时,吞吐量不降的UE;基站向第三UE发送第一切换信息,以使得第三UE切换到WLAN AP中。避免降低UE的吞吐量,进而提高用户体验。
-
公开(公告)号:CN119728457A
公开(公告)日:2025-03-28
申请号:CN202411619302.7
申请日:2024-11-13
Applicant: 北京邮电大学
IPC: H04L41/147 , H04L41/16 , H04L41/14 , H04W24/06 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种网络流量预测方法、装置、电子设备及存储介质,涉及网络流量预测技术领域。其中,方法包括:基于多个网元设备各自的多个流量指标在预设时间段内随时间的变化,确定多个指标序列;将多个指标序列输入至网络流量预测模型的空间特征提取层,获得空间特征提取层输出的空间特征向量;空间特征提取层用于根据多个网元设备和多个流量指标各自之间的因果关系知识,对多个指标序列的拼接过程进行剪枝处理;将空间特征向量输入至网络流量预测模型的时间特征提取层,获得时间特征提取层输出的时空特征向量;将时空特征向量输入至网络预测模型的线性映射层,获得线性映射层输出的预测时段内多个网元设备各自的多个网络指标的预测值。
-
公开(公告)号:CN119182654A
公开(公告)日:2024-12-24
申请号:CN202411079452.3
申请日:2024-08-07
Applicant: 北京邮电大学
IPC: H04L41/0677 , H04L43/087 , H04L43/0829 , H04L43/0876 , H04L43/50 , H04L45/00
Abstract: 本发明提供一种SRv6网络故障的智能诊断方法以及装置,其中,上述方法包括:获取SRv6网络中流量工程策略模式下段列表集合中头节点至尾节点之间的流量特征向量,其中,流量特征向量包括端到端时延、网络时延抖动、丢包率以及链路带宽利用率;将流量特征向量输入至预训练的数据降维聚类模型中,得到预训练的数据降维聚类模型输出的多个网络状态标签,其中,多个网络状态标签中的每个网络状态标签分别用于表示每个流量工程策略模式的网络状态;通过本发明能够提升SRv6网络的故障定位效率。
-
公开(公告)号:CN118246568A
公开(公告)日:2024-06-25
申请号:CN202410231047.2
申请日:2024-02-29
Applicant: 北京邮电大学
Abstract: 本发明提供一种空中计算的联邦学习方法、边缘服务器、中继器及系统,该方法包括:基于可解释性算法对参与联邦学习的各终端设备进行分簇,得到至少两个终端簇;针对各终端簇,接收与终端簇对应的中继器发送的增强叠加信号,增强叠加信号为中继器对叠加信号进行信号放大后得到的,叠加信号为基于对应的终端簇内各终端设备发送的用于联邦学习的模型参数信号进行空中计算后得到的;基于增强叠加信号进行联邦学习。本发明通过对各终端设备进行分簇,并通过中继器对空中计算得到的叠加信号进行信号放大,能降低信号传输的失真率,提高信号传输的准确性和稳定性,进而可以提高联邦学习的效率。
-
公开(公告)号:CN118095410A
公开(公告)日:2024-05-28
申请号:CN202410062281.7
申请日:2024-01-16
Applicant: 北京邮电大学 , 联通时科(北京)信息技术有限公司
IPC: G06N3/098 , G06N3/0455
Abstract: 本发明提供一种神经网络架构搜索的联邦学习参数高效微调方法及装置。该方法包括:基于联邦学习架构中客户端的预训练语言模型进行神经网络架构搜索中,对预训练语言模型的结构参数和参数高效微调模块进行迭代优化,获得第一结构参数和第一参数高效微调模块,并对其进行迭代聚合处理,获得全局结构参数和全局参数高效微调模块;基于全局参数高效微调模块和全局结构参数对客户端的预训练语言模型的第一结构参数和第一参数高效微调模块进行参数更新处理,获得参数更新结果,并基于参数更新结果对预训练语言模型进行微调,获得微调结果。本发明提供的方法,能够有效提高联邦学习参数高效微调效率和准确率,从而降低了通信成本。
-
公开(公告)号:CN118014035A
公开(公告)日:2024-05-10
申请号:CN202311814341.8
申请日:2023-12-26
Applicant: 北京邮电大学 , 联通时科(北京)信息技术有限公司
IPC: G06N3/08 , G06N3/0464 , G06N3/048 , G06N3/0499 , G06N3/0455
Abstract: 本发明提供一种基于自动化适配器的参数高效微调方法及装置,涉及人工智能技术领域,方法包括:获取预训练模型;在预训练模型的候选位置并行插入在先创建的适配器,得到待训练模型;其中,候选位置包括预训练模型的前馈模块、多头注意力模块和整个网络层;利用预设消融机制和神经网络架构搜索,对待训练模型进行训练,以利用适配器对预训练模型进行参数高效微调。本发明通过在预训练模型的候选位置并行插入适配器,并利用预设消融机制和神经网络架构搜索,对插入适配器的预训练模型进行训练,以提高最终适配器对预训练模型的微调性能,在确保少量可调参数的情况下提供强大的性能,进一步减少了微调计算开销,提高了参数高效微调精度。
-
-
-
-
-
-
-
-
-