-
公开(公告)号:CN115062624B
公开(公告)日:2025-05-02
申请号:CN202210672522.0
申请日:2022-06-14
Applicant: 浙江工业大学
IPC: G06F40/30 , G06F40/289 , G06N3/045
Abstract: 本发明公开了一种意图槽值双向交互的自然语言理解方法,采用BERT语义编码模块对用户输入的话语进行文本预处理,并进行语义编码,然后将意图表示向量输入到意图注意力模块,生成语义增强的意图表示向量,并通过自注意语义交互模块,双向交互语义增强的意图语义表示向量和槽语义表示向量,获得最终的意图语义表示向量和槽语义表示向量,然后将最终的意图表示向量和槽语义表示向量输入到CRF语义解码模块,获得最后话语的意图和槽值。本发明使用预训练知识显著提高意图识别和槽填充的识别效果,使得系统可以应用在高精度的NLU场景上,提高了系统的预测精度。
-
公开(公告)号:CN114265631B
公开(公告)日:2024-04-05
申请号:CN202111497448.5
申请日:2021-12-09
Applicant: 浙江工业大学
IPC: G06F9/445 , G06F9/50 , G06N3/04 , G06N3/0985 , G06N20/00
Abstract: 本发明公开了一种基于联邦元学习的移动边缘计算智能卸载方法及装置,云端服务器和边缘服务器具有结构相同的神经网络模型,边缘服务器从云端服务器下载所述神经网络模型的初始网络参数用于更新本地神经网络模型的网络参数,边缘服务器训练本地的神经网络模型,计算出损失值上传给云端服务器,云端服务器聚合所有接收到的损失值进行网络参数的更新,完成网络模型的训练,边缘服务器采用训练好的神经网络模型决定最优卸载策略。本发明在不泄露用户数据隐私的前提下,联合多个边缘服务器共同训练学习,得到泛化能力更强的神经网络模型,并实现边缘服务器个性化计算卸载应用。
-
公开(公告)号:CN115062624A
公开(公告)日:2022-09-16
申请号:CN202210672522.0
申请日:2022-06-14
Applicant: 浙江工业大学
IPC: G06F40/30 , G06F40/289 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种意图槽值双向交互的自然语言理解方法,采用BERT语义编码模块对用户输入的话语进行文本预处理,并进行语义编码,然后将意图表示向量输入到意图注意力模块,生成语义增强的意图表示向量,并通过自注意语义交互模块,双向交互语义增强的意图语义表示向量和槽语义表示向量,获得最终的意图语义表示向量和槽语义表示向量,然后将最终的意图表示向量和槽语义表示向量输入到CRF语义解码模块,获得最后话语的意图和槽值。本发明使用预训练知识显著提高意图识别和槽填充的识别效果,使得系统可以应用在高精度的NLU场景上,提高了系统的预测精度。
-
公开(公告)号:CN115238048A
公开(公告)日:2022-10-25
申请号:CN202210554791.7
申请日:2022-05-20
Applicant: 浙江工业大学
IPC: G06F16/332 , G06F16/33 , G06F40/289 , G06F40/30 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种联合意图识别和槽填充的快速交互方法,采用语义编码器对用户输入的话语进行进行语义编码,获得意图语义表示向量和槽语义表示向量。然后分别采用意图注意力模块和槽注意力模块对意图语义表示向量和槽语义表示向量进行语义增强,采用多头注意力模块对语义增强的意图语义表示向量和槽语义表示向量进行深度的语义交互,将最终的意图语义表示向量和槽语义表示向量分别通过意图分类器模块和槽分类器模块进行分类解码,获得最后输出的意图标签和槽标签。本发明对意图识别和槽填充任务进行联合建模,避免了两个任务间错误信息的传播,设计了多个注意力模块使得意图和槽之间的信息得到充分交互,显著提升了系统预测的准确度。
-
公开(公告)号:CN114265631A
公开(公告)日:2022-04-01
申请号:CN202111497448.5
申请日:2021-12-09
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于联邦元学习的移动边缘计算智能卸载方法及装置,云端服务器和边缘服务器具有结构相同的神经网络模型,边缘服务器从云端服务器下载所述神经网络模型的初始网络参数用于更新本地神经网络模型的网络参数,边缘服务器训练本地的神经网络模型,计算出损失值上传给云端服务器,云端服务器聚合所有接收到的损失值进行网络参数的更新,完成网络模型的训练,边缘服务器采用训练好的神经网络模型决定最优卸载策略。本发明在不泄露用户数据隐私的前提下,联合多个边缘服务器共同训练学习,得到泛化能力更强的神经网络模型,并实现边缘服务器个性化计算卸载应用。
-
-
-
-