-
公开(公告)号:CN107506823B
公开(公告)日:2020-11-13
申请号:CN201710725762.1
申请日:2017-08-22
Applicant: 南京大学
IPC: G06N3/04 , G06F16/332 , G06F40/211 , G06F40/284
Abstract: 本发明公开了一种用于对话生成的混合神经网络模型的构建方法,包括以下步骤:获取形式为对话语句对的数据集并构建词汇表;生成词嵌入表;初始化特定结构的卷积神经网络,生成对应输入语句的词汇推荐表,判断是否提供了真实输出,若有提供则训练本步中的卷积神经网络的参数;初始化特定结构的循环神经网络,使用上步输出,生成具有语序的词汇标识列表,判断是否提供了真实输出,若有提供则训练本步中的循环神经网络的参数;训练结果满足设定指标后,保存词汇表和词嵌入表,保存卷积神经网络和循环神经网络的参数,即为构建整个模型完毕。本发明解决现有的神经网络对话模型因词汇表长度过大导致的训练速度慢、准确率低、生成语句一般化等问题。
-
公开(公告)号:CN107506823A
公开(公告)日:2017-12-22
申请号:CN201710725762.1
申请日:2017-08-22
Applicant: 南京大学
Abstract: 本发明公开了一种用于对话生成的混合神经网络模型的构建方法,包括以下步骤:获取形式为对话语句对的数据集并构建词汇表;生成词嵌入表;初始化特定结构的卷积神经网络,生成对应输入语句的词汇推荐表,判断是否提供了真实输出,若有提供则训练本步中的卷积神经网络的参数;初始化特定结构的循环神经网络,使用上步输出,生成具有语序的词汇标识列表,判断是否提供了真实输出,若有提供则训练本步中的循环神经网络的参数;训练结果满足设定指标后,保存词汇表和词嵌入表,保存卷积神经网络和循环神经网络的参数,即为构建整个模型完毕。本发明解决现有的神经网络对话模型因词汇表长度过大导致的训练速度慢、准确率低、生成语句一般化等问题。
-