-
公开(公告)号:CN110619041A
公开(公告)日:2019-12-27
申请号:CN201910870886.8
申请日:2019-09-16
Applicant: 出门问问信息科技有限公司
IPC: G06F16/332 , G06F16/33
Abstract: 本发明公开了一种智能对话方法、装置以及计算机可读存储介质,应用于设置有问答知识库的服务端,所述方法包括:接收来自客户端发送的请求信息;响应于所述请求信息,基于所述问答知识库选取与所述请求信息对应的回复信息;向客户端反馈所述回复信息。使用时,用户(更具体的说是儿童)在客户端上手写输入或者语音输入儿童问题,客户端将该儿童问题进行整理,生成请求信息,并将生成的请求信息发送到服务端。由此,儿童自身有一些心理问题或者其他问题,都可以通过本方案得到相应的回复信息,以帮助儿童解决儿童心理健康问题。
-
公开(公告)号:CN110580908A
公开(公告)日:2019-12-17
申请号:CN201910932340.0
申请日:2019-09-29
Applicant: 出门问问信息科技有限公司
Abstract: 本发明公开了一种支持不同语种的命令词检测方法及设备,首先采集至少包括两种不同语种的语音信号;接着提取所述语音信号的音频特征;进一步地通过深度学习网络对所提取的音频特征进行分类预测,得到分类预测结果;若所述分类预测结果为命令词的概率最大,则将所述概率最大的命令词作为输出结果。
-
公开(公告)号:CN108960407B
公开(公告)日:2019-07-23
申请号:CN201810570507.9
申请日:2018-06-05
Applicant: 出门问问信息科技有限公司
IPC: G06N3/04
Abstract: 本发明实施例公开了一种递归神经网路语言模型训练方法、装置、设备及介质。其中,方法包括:将语料库中的语言文本分别输入至训练完成的高秩递归神经网路语言模型RNNLM和待训练的轻量级RNNLM中;迭代轻量级RNNLM中的参数,最小化交叉熵损失和Kullback‑Leibler散度的加权和,以完成对轻量级RNNLM的训练;其中,交叉熵损失是轻量级RNNLM的输出向量相对于训练数据标签向量的交叉熵损失,Kullback‑Leibler散度是轻量级RNNLM的输出向量相对于高秩RNNLM的输出向量的Kullback‑Leibler散度。本实施例提供的方法可以有效的降低RNNLM规模。
-
-