一种异构无线网络下的联邦学习采样方法和系统

    公开(公告)号:CN118446331A

    公开(公告)日:2024-08-06

    申请号:CN202410216129.X

    申请日:2024-02-27

    Abstract: 本发明提供一种异构无线网络下的联邦学习采样方法和系统,所述方法包括:向客户端发送用于联邦学习训练的初始模型和预设参数,由客户端基于初始模型和预设参数展开联邦学习训练;从客户端获取客户端参数,并统计总客户端数量和总数据量;向全部客户端下发预设采样概率和第一训练指令,计算每个轮次数所对应的全局模型误差精度;基于客户端回传的本地模型参数进行收敛性分析,基于联邦学习收敛性分析结果推出从初始模型收敛到预设误差精度时所需的轮次数;保留独立采样概率为未知参量,计算在独立采样概率下的轮次时间的期望值;计算从初始模型收敛到预设误差精度时所需的系统时间,求解满足使系统时间最小的针对各个客户端的独立采样概率。

    基于联邦学习的MRI图像分割模型训练方法及相关装置

    公开(公告)号:CN119323577A

    公开(公告)日:2025-01-17

    申请号:CN202411345431.1

    申请日:2024-09-25

    Inventor: 罗冰 周若骏 张雷

    Abstract: 本申请实施例公开了一种基于联邦学习的MRI图像分割模型训练方法及相关装置。各客户端对初始分割模型进行训练得到模型参数差值,服务器根据每个客户端的聚合权重对多个客户端发送的模型参数差值进行聚合,得到聚合梯度,根据聚合梯度更新初始分割模型得到中间态分割模型,将中间态分割模型作为初始分割模型并再次进行多次迭代,将最后一次迭代得到的中间态分割模型作为目标分割模型。采用了联邦学习多模态分割框架,各客户端使用本地多模态MRI图像训练分割模型,不泄漏本地数据、保护本地数据隐私,与中心服务器交互得到全局模型,全局模型相较本地模型具有更强的泛化能力,从技术上打破数据孤岛现象。

    基于分层联邦系统的频繁数据挖掘方法及相关设备

    公开(公告)号:CN116522379A

    公开(公告)日:2023-08-01

    申请号:CN202310330791.3

    申请日:2023-03-30

    Abstract: 本申请实施例公开了基于分层联邦系统的频繁数据挖掘方法及相关设备,用于降低单点故障风险、提升联邦系统的效用及可扩展性、并提升频繁数据挖掘的容错性及准确性。本申请实施例方法包括:接收每个辅助服务端发送的候选频繁数据;所述候选频繁数据由对应的辅助服务器根据本地扰动数据确定,所述本地扰动数据包括对应的用户端发送的扰动数据;根据预设重要性公式计算每个候选频繁数据的重要性指标;根据所述每个候选频繁数据的重要性指标,从多个候选频繁数据中确定k个目标频繁数据,k为目标频繁数据的预期数量。

    最小化联邦学习时间的参与方在线采样方法及设备

    公开(公告)号:CN116432782A

    公开(公告)日:2023-07-14

    申请号:CN202310484383.3

    申请日:2023-04-28

    Inventor: 罗冰 邵佳琪

    Abstract: 本申请实施例公开了最小化联邦学习时间的参与方在线采样方法及设备,用于降低联邦学习的学习总时间以提升联邦学习效率。本申请实施例方法,考虑了数据和系统异质性对全局模型收敛的影响,在保证模型收敛精度的前提下使在线联邦学习的学习总时间最小化,最后得到自适应参与方采样的最佳策略。采用在线学习的方式,可以定时或按需重新估计参与方每轮训练所需的时间,以更新得到当前时刻的最佳采样方案,从而进一步解决了系统异质性问题。另外,所提出的低复杂度的采样算法能够近似解决前述非凸优化问题,大大提高了联邦学习的效率。

    基于分层联邦系统的频繁数据挖掘方法及相关设备

    公开(公告)号:CN116522379B

    公开(公告)日:2025-03-04

    申请号:CN202310330791.3

    申请日:2023-03-30

    Abstract: 本申请实施例公开了基于分层联邦系统的频繁数据挖掘方法及相关设备,用于降低单点故障风险、提升联邦系统的效用及可扩展性、并提升频繁数据挖掘的容错性及准确性。本申请实施例方法包括:接收每个辅助服务端发送的候选频繁数据;所述候选频繁数据由对应的辅助服务器根据本地扰动数据确定,所述本地扰动数据包括对应的用户端发送的扰动数据;根据预设重要性公式计算每个候选频繁数据的重要性指标;根据所述每个候选频繁数据的重要性指标,从多个候选频繁数据中确定k个目标频繁数据,k为目标频繁数据的预期数量。

    MRI图像分割模型训练方法、MRI图像分割方法及相关装置

    公开(公告)号:CN119206224A

    公开(公告)日:2024-12-27

    申请号:CN202411320065.4

    申请日:2024-09-20

    Inventor: 张雷 周若骏 罗冰

    Abstract: 本申请实施例公开了一种MRI图像分割模型训练方法、MRI图像分割方法及相关装置。U‑Net网络的编码器对多模态MRI图像进行下采样,得到每个模态MRI图像的特征图,交叉模态模块对多模态MRI图像的多个特征图进行融合,U‑Net网络的解码器对融合特征矩阵进行上采样,将上采样特征矩阵映射为目标特征图,对目标特征图进行处理得到预测分割结果,根据预测分割结果以及标注调整模型参数,得到目标分割模型。交叉模态模块具有处理多模态MRI图像的能力,可以捕获多模态MRI图像输入的长距离依赖关系,很大程度上提高了对MRI图像的脑肿瘤区域的分割精度。在U‑Net网络上采样和下采样都采用的是轻量化的卷积操作,在不复杂化模型结构和增加参数量的前提下有效降低过拟合的风险。

    最小化联邦学习总成本的在线参数选择方法以及相关设备

    公开(公告)号:CN116341690A

    公开(公告)日:2023-06-27

    申请号:CN202310485067.8

    申请日:2023-04-28

    Inventor: 罗冰 邵佳琪

    Abstract: 本申请实施例公开了最小化联邦学习总成本的在线参数选择方法以及相关设备,用于最小化联邦学习的学习总成本。本申请实施例方法考虑并权衡了能源成本和时间成本,并适用于不同指标偏好的联邦学习,如优化时间成本或优化能源成本。在保证模型收敛的前提下,使在线联邦学习的学习总成本最小化,最后得到自适应参与方训练的最优变量(即目标参与方数量以及目标本地迭代次数)。采用在线学习的方式,可以定时或按需重新估计参与方每轮训练所需的成本,以更新得到当前时刻的最佳训练方案,从而进一步解决了系统环境变化带来的问题。另外,所提出的高效算法可以用来近似解决原优化问题,并且提高联邦学习的效率。

    协作多点传输系统中协同传输设备的下行传输功率分配方法

    公开(公告)号:CN102724744B

    公开(公告)日:2015-01-07

    申请号:CN201210191323.4

    申请日:2012-06-11

    CPC classification number: H04W52/40 H04B7/024 H04W52/143 H04W52/241

    Abstract: 本发明公开了一种协作多点传输系统中协同传输设备的下行传输功率分配方法,该方法包括:协同传输设备接收由终端反馈的所述终端占用的各个信道的信道状态信息,其中,所述信道状态信息包括信道相位信息和信道幅度信息;协同传输设备是在协作多点传输系统中对终端提供无线接入的设备;各协同传输设备分别调整其在各个子信道的发送信号的相位,以使得终端在同一子信道接收到的来自各个协同传输设备的发送信号之间的相位差值最小;各协同传输设备分别基于终端反馈的信道幅度信息和调整后的发送信号的相位来确定其在各个子信道的功率分配比例。本发明采用了复杂度较低的迭代式协同注水功率分配算法,有效利用多点协同的优势,提升了系统的容量。

Patent Agency Ranking