-
公开(公告)号:CN116127371B
公开(公告)日:2023-09-08
申请号:CN202211554437.0
申请日:2022-12-06
Applicant: 东北林业大学
IPC: G06F18/241 , G06F18/214 , G06N3/08 , G06N3/0464
Abstract: 融合先验分布与同态混沌加密的多用户模型联合迭代方法,本发明涉及深度学习模型联合迭代技术中,用户本地数据分布差异较大以及隐私保护的问题。训练深度学习模型应用于各行各业中的不同任务处理已愈发广泛。然而模型训练依赖于足够数量与质量的数据集。然而数据经常难以采集以及隐私保护愈发重要,导致模型泛化性与准确性难以达到要求,本发明提出一种多用户模型联合迭代方法,其主要思想是利用先验分布弥合多用户本地数据分布差异,并混合两种加密技术保护数据隐私,从而实现模型联合迭代。该方法能有效降低模型训练难度,提升模型的泛化性能以及准确度。本发明应用于深度学习模型训练中的多用户模型联合迭代。
-
公开(公告)号:CN116127371A
公开(公告)日:2023-05-16
申请号:CN202211554437.0
申请日:2022-12-06
Applicant: 东北林业大学
IPC: G06F18/241 , G06F18/214 , G06N3/08 , G06N3/0464
Abstract: 融合先验分布与同态混沌加密的多用户模型联合迭代方法,本发明涉及深度学习模型联合迭代技术中,用户本地数据分布差异较大以及隐私保护的问题。训练深度学习模型应用于各行各业中的不同任务处理已愈发广泛。然而模型训练依赖于足够数量与质量的数据集。然而数据经常难以采集以及隐私保护愈发重要,导致模型泛化性与准确性难以达到要求,本发明提出一种多用户模型联合迭代方法,其主要思想是利用先验分布弥合多用户本地数据分布差异,并混合两种加密技术保护数据隐私,从而实现模型联合迭代。该方法能有效降低模型训练难度,提升模型的泛化性能以及准确度。本发明应用于深度学习模型训练中的多用户模型联合迭代。
-