-
公开(公告)号:CN113591145A
公开(公告)日:2021-11-02
申请号:CN202110856897.8
申请日:2021-07-28
Applicant: 西安电子科技大学
Abstract: 一种基于差分隐私和量化的联邦学习全局模型训练方法,其步骤为:中央服务器下发预训练的联邦学习全局模型,生成每个本地用户的本地模型梯度,对每个本地用户的本地模型梯度依次进行添加噪声,阈值量化,压缩量化,将压缩量化后的本地模型梯度上传至中央服务器,中央服务器对上传的本地模型梯度进行加权聚合并更新全局模型后下发给每个本地用户,当每个本地用户的隐私预算值耗尽或者联邦学习全局模型收敛时结束训练。本发明的方法在不损失联邦学习全局模型精确度的前提下,保护了本地用户的隐私,降低了传输过程中的通信开销,提高了联邦学习全局模型的训练效率。
-
公开(公告)号:CN117809037A
公开(公告)日:2024-04-02
申请号:CN202311869652.4
申请日:2023-12-29
Applicant: 电子科技大学
IPC: G06V10/26 , G06V20/17 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/082
Abstract: 本发明公开了一种无人机图像语义分割网络参数预裁剪方法,属于深度学习神经网络技术领域。本发明包括:采集无人机图像并做像素级类别标注,对原始样本集进行预处理并生成数据集;构建损失不随参数尺度变化的图像语义分割卷积神经网络并完成网络参数初始化;定义语义分割损失函数并计算损失表面的初始锐度;评估参数裁剪对初始锐度的影响并构建网络参数预裁剪的显著性指标;根据目标稀疏率和显著性指标裁剪网络参数;在训练集上优化更新裁剪后的子网络,获得最终的无人机语义分割网络模型。本发明在不需要网络训练的前提下对参数初始化后的模型进行参数裁剪,极大提高了语义分割网络模型的裁剪效率,并减小了参数裁剪对子网络的泛化性能的影响。
-
公开(公告)号:CN113591145B
公开(公告)日:2024-02-23
申请号:CN202110856897.8
申请日:2021-07-28
Applicant: 西安电子科技大学
Abstract: 一种基于差分隐私和量化的联邦学习全局模型训练方法,其步骤为:中央服务器下发预训练的联邦学习全局模型,生成每个本地用户的本地模型梯度,对每个本地用户的本地模型梯度依次进行添加噪声,阈值量化,压缩量化,将压缩量化后的本地模型梯度上传至中央服务器,中央服务器对上传的本地模型梯度进行加权聚合并更新全局模型后下发给每个本地用户,当每个本地用户的隐私预算值耗尽或者联邦学习全局模型收敛时结束训练。本发明的方法在不损失联邦学习全局模型精确度的前提下,保护了本地用户的隐私,降低了传输过程中的通信开销,提高了联邦学习全局模型的训练效率。
-
-