-
公开(公告)号:CN111798840A
公开(公告)日:2020-10-20
申请号:CN202010688457.1
申请日:2020-07-16
Applicant: 中移在线服务有限公司 , 中国科学院声学研究所
Abstract: 本申请提供一种语音关键词识别方法和装置,从目标关键词的音频中提取出第一声学特征和第二声学特征,将第一声学特征和第二声学特征拼接为第一声学特征序列;从待识别的目标语音的音频中提取出第三声学特征和第四声学特征,将第三声学特征和第四声学特征拼接为第二声学特征序列;将第一、第二声学特征序列分别输入预先训练的第一模型和第二模型,输出第一、第二嵌入向量;计算第一嵌入向量与第二嵌入式向量之间的相似度,基于相似度确定目标语音中是否包含目标关键词。该方法使得输出的嵌入向量包含更多的上下文信息,改善了样例关键词识别的有效性。
-
公开(公告)号:CN111798840B
公开(公告)日:2023-08-08
申请号:CN202010688457.1
申请日:2020-07-16
Applicant: 中移在线服务有限公司 , 中国科学院声学研究所
Abstract: 本申请提供一种语音关键词识别方法和装置,从目标关键词的音频中提取出第一声学特征和第二声学特征,将第一声学特征和第二声学特征拼接为第一声学特征序列;从待识别的目标语音的音频中提取出第三声学特征和第四声学特征,将第三声学特征和第四声学特征拼接为第二声学特征序列;将第一、第二声学特征序列分别输入预先训练的第一模型和第二模型,输出第一、第二嵌入向量;计算第一嵌入向量与第二嵌入式向量之间的相似度,基于相似度确定目标语音中是否包含目标关键词。该方法使得输出的嵌入向量包含更多的上下文信息,改善了样例关键词识别的有效性。
-
公开(公告)号:CN118656778A
公开(公告)日:2024-09-17
申请号:CN202410669554.4
申请日:2024-05-28
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
IPC: G06F18/25 , G10L25/51 , G10L25/30 , G06F18/214 , G06F18/241 , G06F18/213 , G06N3/04 , G06N3/08
Abstract: 本发明涉及人工智能领域,提供一种声音事件检测和定位方法、装置、设备、介质及程序产品,该方法包括:获取待处理数据,其中,待处理数据中包括视频数据和音频数据;基于视频数据提取视觉特征,以及基于音频数据提取音频特征;对视觉特征和音频特征进行融合处理,得到目标特征;将目标特征输入到声音事件检测和定位模型中进行处理,得到声音事件检测结果和声音事件定位结果;其中,声音事件检测和定位模型基于Mixup数据增强方法训练而成。本发明将音频特征和视觉特征进行融合,使得得到的目标特征学习不同模态的特征对声音事件检测和定位的贡献,同时,基于Mixup数据增强方法训练而成声音事件检测和定位模型的准确率更高。
-
公开(公告)号:CN119312167A
公开(公告)日:2025-01-14
申请号:CN202411508185.7
申请日:2024-10-28
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
IPC: G06F18/241 , G06F18/213 , G06F16/35 , G06N3/094 , G06N3/045
Abstract: 本发明提供分类模型训练方法、分类方法、装置、设备、介质及产品,分类模型训练方法包括:将样本待分类数据输入至分类模型中的特征提取模块,获取特征提取模块输出的样本特征,样本待分类数据属于的领域为第一领域或第二领域;将样本特征输入至领域判别器,获取领域判别器输出的样本待分类数据对应的域判断结果;将样本特征输入至分类模型中的分类预测模块,获取分类预测模块输出的样本分类结果;基于域判断结果和样本待分类数据对应的领域标签生成对抗性损失,基于样本分类结果以及样本待分类数据对应的分类结果标签之间的差异确定分类损失,基于对抗性损失和分类损失更新分类模型。本发明可以实现在低资源的场景下提高分类模型的分类性能。
-
公开(公告)号:CN119007709A
公开(公告)日:2024-11-22
申请号:CN202411323079.1
申请日:2024-09-23
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
Abstract: 本发明提供一种单通道语音识别方法、设备及存储介质,涉及语音识别技术领域,所述方法包括:获取语音数据;对语音数据进行分割处理,获取多个语音片段数据;对多个语音片段数据进行特征提取处理,获取声学稳健特征信息;将声学稳健特征信息输入至预设的处理模型进行处理,获取人声片段嵌入向量;根据各个人声片段嵌入向量,获取身份标识信息以及对应的语音起止时间信息;根据身份标识信息、语音起止时间信息以及语音片段数据,获取语音识别结果信息。分割处理获取语音片段数据,便于并行处理提高处理效率,处理模型由模型加速处理后获得,简化处理过程提高处理速度并且维持模型性能水平,降低对硬件性能的要求,满足语音识别的准确率和效率要求。
-
公开(公告)号:CN118430588A
公开(公告)日:2024-08-02
申请号:CN202410616723.8
申请日:2024-05-17
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
IPC: G10L25/63
Abstract: 本发明提供一种语音情绪类型识别方法、装置、设备、介质及产品,属于情绪识别技术领域,方法包括:获取音频信号;基于音频信号进行多层次特征提取;将多层级音频特征输入至情绪识别模型,输出音频信号存在情绪的第一后验概率、音频信号存在情绪的概率门限值以及多个情绪类型分别对应的第二后验概率;基于第一后验概率和概率门限值,确定音频信号的情绪系数;基于情绪系数和多个第二后验概率,确定音频信号的目标情绪类型结果。本发明提供的语音情绪类型识别方法,先通过情绪系数反映出一个初步的情绪分类结果,再在此情绪分类结果的基础上,基于情绪系数和多个第二后验概率的结合,实现更细粒度的情绪分类,从而提高语音情绪类型识别的准确性。
-
公开(公告)号:CN117079638A
公开(公告)日:2023-11-17
申请号:CN202210502017.1
申请日:2022-05-10
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
Abstract: 本申请提供一种语音合成方法、装置、电子设备及可读存储介质。方法包括:对待合成文本的第i声学特征帧进行频带划分,得到与第i声学特征帧对应的m个子频带,每个子频带分别包括u个采样点;采用第一预测方式预测第一子频带各采样点的采样值,以及采用第二预测方式预测第二子频带各采样点的采样值,得到与第i声学特征帧对应的m×u个采样值,在第一预测方式中,采样点的采样值基于采样点的线性预测值以及激励值确定;在第二预测方式中,采样点的采样值直接基于采样点的激励值确定;根据待合成文本的各声学特征帧分别对应的m×u个采样值,生成与待合成文本对应的音频文件。本申请可以提高语音合成的速率。
-
公开(公告)号:CN119207417A
公开(公告)日:2024-12-27
申请号:CN202411297769.4
申请日:2024-09-18
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司 , 中国移动通信有限公司销售分公司
Abstract: 本发明提供一种语音转文字方法、装置、设备及存储介质,涉及语音识别技术领域,所述方法包括:获取语音数据以及热词列表信息;根据语音数据,获取声学特征信息;根据语音数据以及热词列表信息,基于注意力机制处理,获取热词索引信息以及注意力特征信息;根据热词索引信息,获取热词特征信息;根据声学特征信息、注意力特征信息以及热词特征信息,生成文本转换结果信息。结合热词列表信息以及注意力机制,利用热词列表信息弥补低资源语言或专业术语场景下的词汇基础,利用注意力对热词的优先级进行调整,使语音识别过程中更加准确地识别转写关键词汇,令文本转换结果信息在低资源语言或专业术语场景下更加准确,提高语音转文字的准确率和可靠性。
-
公开(公告)号:CN118800241A
公开(公告)日:2024-10-18
申请号:CN202311369389.2
申请日:2023-10-20
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
Abstract: 本申请涉及人工智能领域,提供一种声纹更新方法、装置、设备和存储介质。所述方法包括:对客户近一个周期的若干个音频进行切分,得到多个人声片段;以原注册音所在簇的人声片段时长和达到阈值为终止条件,对人声片段和原注册音进行聚类;对原注册音所在簇的人声片段进行拼接后进行特征提取,得到拼接声纹特征;基于拼接声纹特征与原注册音的比对结果更新原注册音。本申请提供的声纹更新方法根据近期通话录音数据,拼接细粒度的聚类片段作为更新的注册音,持续优化声纹模型,提高声纹认证的准确性和稳定性;聚集注册音相近的人声片段,结合时长阈值作为聚类终止条件,保证说话人特征有效性的同时确保注册音时长,提升了注册音鲁棒性。
-
公开(公告)号:CN118800212A
公开(公告)日:2024-10-18
申请号:CN202311589429.4
申请日:2023-11-27
Applicant: 中移在线服务有限公司 , 中国移动通信集团有限公司
Abstract: 本申请涉及计算机技术领域,提供一种语音合成前端处理方法、装置、设备和存储介质。该方法包括:对待处理文本进行切分,得到至少一个文字,基于预设字典确定每个文字对应的序号;将携带序号的待处理文本输入至韵律预测模型,得到韵律预测模型输出的韵律标签和拼音标签;其中,韵律预测模型是基于携带韵律标签和拼音标签的文本数据集,以及预设字典对应的编码向量训练得到的。本申请通过预训练编码,从预设字典中提取有关发音和韵律的编码信息,并引入模型中,从而提高模型对多音字消歧任务的预测准确率;同时,通过韵律预测模型预测韵律标签和拼音标签,降低了推理复杂度,并提高了前端任务的准确率。
-
-
-
-
-
-
-
-
-