一种文本检索匹配方法和系统

    公开(公告)号:CN114428850B

    公开(公告)日:2022-08-05

    申请号:CN202210357952.3

    申请日:2022-04-07

    Abstract: 本发明属于人工智能领域,涉及一种文本检索匹配方法和系统,该方法包括:步骤一,采集不同领域的中文自然语言推理文本语料,作为句子表征模型的训练语料;步骤二,结合对比学习方法训练句子表征模型,再利用句子语义匹配基准数据集来测试并筛选出最佳句子表征模型;步骤三,使用筛选出的最佳句子表征模式,对要匹配的长短文本中的句子进行相似度计算;步骤四,根据相似度计算的结果,采用Sigmod函数得到句子的匹配分数,来判断是否为相似句子,完成文本检索。本发明根据文本的长度与各类模型的特性,利用最适合的模型架构进行文本检索的任务,解决了文本匹配遇到的缺乏考虑句子之间主题的相似性、模型长度限制等问题,提高了匹配的效果。

    一种面向模态有缺失数据的鲁棒多模态表示学习方法

    公开(公告)号:CN116310957A

    公开(公告)日:2023-06-23

    申请号:CN202310148221.2

    申请日:2023-02-09

    Abstract: 本发明公开了一种面向模态有缺失数据的鲁棒多模态表示学习方法,包括定义多模态数据集,利用对比学习将同一样本在不同模态的表示相互拉近,不同样本的表示彼此拉远,以学习样本的模态不变性表示。随后通过K近邻等方法寻找缺失数据的相似表示,通过加权重构的方式重新对缺失数据进行补全,以应对下游任务的需求。该方法对部分数据缺失的低质量多模态数据具有鲁棒性,可以学得这类多模态数据的特征表示并对缺失部分进行重构,同时结合深度神经网络模型,有效利用了其强大的表征能力,能得到很好的数据表示,有利于之后的聚类、分类识别或数据检索等任务。

    一种语音的合成方法、装置、设备及存储介质

    公开(公告)号:CN115457931B

    公开(公告)日:2023-03-24

    申请号:CN202211378555.0

    申请日:2022-11-04

    Abstract: 本说明书公开了一种语音的合成方法、装置、设备及存储介质,通过将获取到的语音文本数据拆分为多个字语音文本数据,并且每个子语音文本数据之间存在重叠,从而使得在将每个子语音文本数据对应的情感语音数据进行合成时,可以针对重叠的部分进行优化处理,以使各子语音文本数据对应的情感语音数据过渡时更加自然。进而通过预测模型,针对每个子语音文本数据,在考虑到预测出的上一个子语音文本数据对应的情感强度值的基础上,预测出该子语音文本数据的情感强度值,以避免任意相邻的两个子语音文本数据之间的情感强度的变化较为生硬的问题,最后通过语音合成模型,合成与所述语音文本数据对应的情感语音,进而可以使合成的情感语音数据更加拟人化。

    一种文本检索匹配方法和系统

    公开(公告)号:CN114428850A

    公开(公告)日:2022-05-03

    申请号:CN202210357952.3

    申请日:2022-04-07

    Abstract: 本发明属于人工智能领域,涉及一种文本检索匹配方法和系统,该方法包括:步骤一,采集不同领域的中文自然语言推理文本语料,作为句子表征模型的训练语料;步骤二,结合对比学习方法训练句子表征模型,再利用句子语义匹配基准数据集来测试并筛选出最佳句子表征模型;步骤三,使用筛选出的最佳句子表征模式,对要匹配的长短文本中的句子进行相似度计算;步骤四,根据相似度计算的结果,采用Sigmod函数得到句子的匹配分数,来判断是否为相似句子,完成文本检索。本发明根据文本的长度与各类模型的特性,利用最适合的模型架构进行文本检索的任务,解决了文本匹配遇到的缺乏考虑句子之间主题的相似性、模型长度限制等问题,提高了匹配的效果。

    一种对话回复生成方法、装置和存储介质

    公开(公告)号:CN115879422B

    公开(公告)日:2023-06-13

    申请号:CN202310176290.4

    申请日:2023-02-16

    Inventor: 李太豪 黄剑韬

    Abstract: 本申请涉及一种对话回复生成方法、装置和存储介质,该方法包括:利用预先训练好的句子表征模型,生成对话语句的句向量;提取所述对话语句的主题词;所述主题词用于标识所述对话语句的主题信息;根据所述主题词和所述预先训练好的句子表征模型,生成所述对话语句的主题向量;根据所述句向量和所述主题向量,生成所述对话回复。本申请利用主题信息来生成相应的对话回复,提高了对话回复的准确性,解决了现有的对话回复生成技术中缺少了对主题相关信息的利用,从而导致生成的对话回复不准确的问题。

    一种对话回复生成方法、装置和存储介质

    公开(公告)号:CN115879422A

    公开(公告)日:2023-03-31

    申请号:CN202310176290.4

    申请日:2023-02-16

    Inventor: 李太豪 黄剑韬

    Abstract: 本申请涉及一种对话回复生成方法、装置和存储介质,该方法包括:利用预先训练好的句子表征模型,生成对话语句的句向量;提取所述对话语句的主题词;所述主题词用于标识所述对话语句的主题信息;根据所述主题词和所述预先训练好的句子表征模型,生成所述对话语句的主题向量;根据所述句向量和所述主题向量,生成所述对话回复。本申请利用主题信息来生成相应的对话回复,提高了对话回复的准确性,解决了现有的对话回复生成技术中缺少了对主题相关信息的利用,从而导致生成的对话回复不准确的问题。

    一种基于主题增强的开放域对话回复方法及系统

    公开(公告)号:CN115048944B

    公开(公告)日:2022-12-20

    申请号:CN202210981384.4

    申请日:2022-08-16

    Inventor: 李太豪 黄剑韬

    Abstract: 本发明公开一种基于主题增强的开放域对话回复方法及系统,该方法包括:步骤一:采集并预处理得到中文对话语料数据集;步骤二:利用自然语言处理工具包进行对话的断句、分词和词性标注并抽取名词性词语;步骤三:对每一句对话进行语义及主题信息的增强处理,后使用预训练句子表征模型学习原始句子与增强后句子的向量表征;步骤四:使用图卷积神经网络提取对话句子的语义及主题信息,并进行主题聚合增强的处理;步骤五:将主题聚合增强后的句向量输入预训练的生成模型,生成对话回复候选集,最后采用对比学习方法训练回复排序选择模型选出最适合的回复。本发明解决了开放域对话回复生成中的生成回复主题不一致性的问题,提高了回复生成的效果。

    一种跨模态上下文编码的对话情感识别方法及系统

    公开(公告)号:CN114463688A

    公开(公告)日:2022-05-10

    申请号:CN202210377011.6

    申请日:2022-04-12

    Abstract: 本发明公开一种跨模态上下文编码的对话情感识别方法及系统,该方法包括:步骤S1,将多轮对话中每条语句对应的视频模态、音频模态及文本模态信息分别进行编码,得到各语句对应的视觉模态、语音模态及文本模态表征向量序列;步骤S2,将多轮对话的视觉模态表征向量序列、语音模态表征向量序列及文本模态表征向量序列分别进行模态内的上下文编码,得到对话中各语句的单模态上下文编码表征;步骤S3,将对话中各语句的单模态上下文编码表征进行两两组合编码,得到对话中各语句跨模态融合的上下文编码;步骤S4,将跨模态融合的上下文编码表征进行自适应的信息汇总,并对语句的情感类别进行判断。本发明能够有效提升对话情感的识别精度。

    一种基于语音深度表征映射的语音翻译方法及系统

    公开(公告)号:CN115312029B

    公开(公告)日:2023-01-31

    申请号:CN202211244884.6

    申请日:2022-10-12

    Abstract: 本发明公开了一种基于语音深度表征映射的语音翻译方法及系统属于人工智能领域,涉及人工智能领域,本发明基于语音深度表征映射的语音翻译方法及海量无标注数据和大量成对数据训练深度学习模型,可以方便的使用海量影视等媒体数据进行模型训练,方便的应用于各种语言语音的互译,提供了一种便捷通用的语音互译方案;本发明基于语音深度表征映射的语音翻译方法提供了一种声纹嵌入的声码器进行语音合成,可实现语音翻译发音音色指定可控,并且能够使得合成的语音保真度更高;本发明的语音深度表征映射的语音翻译系统集成了基于语音深度表征映射的语音翻译方法,能够实现语音直接翻译任务,简化了语音翻译的流程,提高了语音翻译的精度。

    一种语音的合成方法、装置、设备及存储介质

    公开(公告)号:CN115457931A

    公开(公告)日:2022-12-09

    申请号:CN202211378555.0

    申请日:2022-11-04

    Abstract: 本说明书公开了一种语音的合成方法、装置、设备及存储介质,通过将获取到的语音文本数据拆分为多个字语音文本数据,并且每个子语音文本数据之间存在重叠,从而使得在将每个子语音文本数据对应的情感语音数据进行合成时,可以针对重叠的部分进行优化处理,以使各子语音文本数据对应的情感语音数据过渡时更加自然。进而通过预测模型,针对每个子语音文本数据,在考虑到预测出的上一个子语音文本数据对应的情感强度值的基础上,预测出该子语音文本数据的情感强度值,以避免任意相邻的两个子语音文本数据之间的情感强度的变化较为生硬的问题,最后通过语音合成模型,合成与所述语音文本数据对应的情感语音,进而可以使合成的情感语音数据更加拟人化。

Patent Agency Ranking