面向智能客服对话场景的语义分析方法

    公开(公告)号:CN109947918A

    公开(公告)日:2019-06-28

    申请号:CN201910183664.9

    申请日:2019-03-12

    Inventor: 张晖 李吉媛 何辉

    Abstract: 本发明揭示了一种面向智能客服对话场景的语义分析方法,包括如下步骤:S1、获取某一智能客服场景下所涉及产品的相关文本信息,并以问答的形式形成对话知识库;S2、将对话知识库进行扩展,使每一答句均对应多种不同表达形式的问句,并以此形式形成训练样本集;S3、提取语义特征,将训练样本集由抽象的文本转化为低纬度密集型的向量化表示;S4、采用隐藏状态可逆计算策略构建基于GRU双向循环神经网络模型并训练,获得语义分析模型;S5、利用优化策略测试语义分析模型,完成语义分析模型的深度优化。本发明可以在无人工参与的情况下自动地从语义分析的层次出发真正实现理解用户意图的目的,从而及时且准确的给予用户准确的回复。

    面向网络直播场景的用户言论语义分析方法

    公开(公告)号:CN109657241A

    公开(公告)日:2019-04-19

    申请号:CN201811523923.X

    申请日:2018-12-13

    Inventor: 张晖 李吉媛

    Abstract: 本发明揭示了一种面向网络直播场景的用户言论语义分析方法,包括如下步骤:S1、实时获取网络直播平台直播间内用户输入区的内容,并进行预处理;S2、将预处理过的内容进行分词处理,保持词序列顺序不变;S3、根据语料词典得到每个词的词向量,进而得到用户输入内容的向量表示;S4、构建并训练LSTM型双向RNN语义分析分类器模型;S5、依据S4中建立的模型判断用户输入内容是否包含不良信息,若不包含则正常发送,否则提醒用户并禁止发送。本发明可以在无人工参与的情况下自动地完成对用户言论的语义分析、从源头上对网络直播平台内的用户言论进行监督,不仅能够保证监督的实时性和有效性,而且也节约了人工成本。

    一种基于深度学习的场景自适应Attention多意图识别方法

    公开(公告)号:CN113204971B

    公开(公告)日:2024-01-26

    申请号:CN202110326513.1

    申请日:2021-03-26

    Abstract: 本发明提出了一种基于深度学习的场景自适应Attention多意图识别方法,包括如下内容:首先,实时获取当前用户输入的多意图文本并进行预处理;然后,构建多层Bi‑IndRNN神经网络模型,用来提取当前输入的多意图文本的语义特征;之后,构建场景自适应Attention语义增强模型,充分利用特定场景特征来增强多意图文本的语义特征;最后,构建多意图分类器,用来识别用户的多个意图。本发明利用场景自适应Attention的方法,在提取多意图文本语义特征时融合特定场景独有的特征来增强文本的语义特征,实现了对多意图文本的深层次语义特征的挖掘,可以有效解决人机对话中常面临的多意图识别问题,从而提高解决问题的效率和人机对话的体验。

    一种基于聚类预分析的多意图与语义槽联合识别方法

    公开(公告)号:CN113204952A

    公开(公告)日:2021-08-03

    申请号:CN202110325369.X

    申请日:2021-03-26

    Abstract: 本发明提出了一种基于聚类预分析的多意图识别与语义槽填充联合建模方法:实时获取当前用户输入的多意图文本并进行预处理;基于聚类预分析构建多意图识别模型,用来识别用户的多个意图;基于Slot‑Gated关联门机制构建BiLSTM‑CRF语义槽填充模型,充分利用意图识别的结果指导语义槽的填充;对构建的多意图识别与语义槽填充的联合模型进行优化。本发明充分考虑了意图识别与语义槽填充之间的联系,提出了一种联合建模的方法,将两个语义分析子任务合并为一个语义分析任务,在提高多意图识别准确性的同时也提高语义槽填充的准确性,从而提高自然语言语义分析的质量;在实际应用中,可以有效提升人机对话中机器理解人类语言的能力,提高解决问题的能力和人机对话的体验。

    一种用于VR全景直播的动态图像融合方法及系统

    公开(公告)号:CN112533002A

    公开(公告)日:2021-03-19

    申请号:CN202011284179.X

    申请日:2020-11-17

    Abstract: 本发明公开了一种用于VR全景直播的动态图像融合方法及系统,包括:采集多视角直播流,压缩编码后,实时的将其推送到流媒体服务器上;使用动态图像融合算法将不同视角的直播画面无缝拼接,生成VR全景直播流;创建虚拟场景和3D球体对象,并在虚拟场景内以VR全景图为材质建立网格模型;创建虚拟的透视相机,指定相机的初始位置、方向和视野范围;创建3D渲染器,把场景中虚拟摄像机视野范围内的所有二维直播画面渲染成三维图像并显示;根据用户视角的改变,改变虚拟摄像机的位置和方向,以生成并显示不同视角的直播画面。本发明支持用户视角改变,不仅能扩展用户在直播中的视野范围,消除直播盲区,而且为用户带来沉浸式的视觉感受,提高直播效果。

    一种基于聚类预分析的多意图与语义槽联合识别方法

    公开(公告)号:CN113204952B

    公开(公告)日:2023-09-15

    申请号:CN202110325369.X

    申请日:2021-03-26

    Abstract: 本发明提出了一种基于聚类预分析的多意图识别与语义槽填充联合建模方法:实时获取当前用户输入的多意图文本并进行预处理;基于聚类预分析构建多意图识别模型,用来识别用户的多个意图;基于Slot‑Gated关联门机制构建BiLSTM‑CRF语义槽填充模型,充分利用意图识别的结果指导语义槽的填充;对构建的多意图识别与语义槽填充的联合模型进行优化。本发明充分考虑了意图识别与语义槽填充之间的联系,提出了一种联合建模的方法,将两个语义分析子任务合并为一个语义分析任务,在提高多意图识别准确性的同时也提高语义槽填充的准确性,从而提高自然语言语义分析的质量;在实际应用中,可以有效提升人机对话中机器理解人类语言的能力,提高解决问题的能力和人机对话的体验。

    一种基于深度学习的场景自适应Attention多意图识别方法

    公开(公告)号:CN113204971A

    公开(公告)日:2021-08-03

    申请号:CN202110326513.1

    申请日:2021-03-26

    Abstract: 本发明提出了一种基于深度学习的场景自适应Attention多意图识别方法,包括如下内容:首先,实时获取当前用户输入的多意图文本并进行预处理;然后,构建多层Bi‑IndRNN神经网络模型,用来提取当前输入的多意图文本的语义特征;之后,构建场景自适应Attention语义增强模型,充分利用特定场景特征来增强多意图文本的语义特征;最后,构建多意图分类器,用来识别用户的多个意图。本发明利用场景自适应Attention的方法,在提取多意图文本语义特征时融合特定场景独有的特征来增强文本的语义特征,实现了对多意图文本的深层次语义特征的挖掘,可以有效解决人机对话中常面临的多意图识别问题,从而提高解决问题的效率和人机对话的体验。

    基于深度学习的对话方法及装置、存储介质和终端

    公开(公告)号:CN110472022A

    公开(公告)日:2019-11-19

    申请号:CN201910553845.6

    申请日:2019-06-25

    Abstract: 一种基于深度学习的对话方法及装置、存储介质和终端,所述方法包括:实时获取用户输入的当前轮会话的文本信息;对所获取的当前轮会话的文本信息进行预处理;使用预设的深度神经网络模型提取所述当前轮会话的文本信息的深层次语义信息;当确定所提取的深层次语义信息中的用户需求指令不明确时,采用上一轮会话的有效深层次语义信息对所提取的深层次语义信息进行补全;基于补全后的深层次语义信息中的用户需求指令,从预设的知识库中获取答复内容作为当前轮会话的答复。上述的方案,可以有效减少会话轮数,提高智能会话系统的智能化程度。

Patent Agency Ranking