基于注意力重打分的流式语音识别方法

    公开(公告)号:CN115240645B

    公开(公告)日:2024-09-24

    申请号:CN202210864507.6

    申请日:2022-07-21

    Abstract: 本发明提出了一种基于注意力重打分的流式语音识别方法,实现步骤为:获取训练数据集;构建基于注意力重打分的流式语音识别模型;对流式语音识别模型进行迭代训练;获取实时语音识别结果。本发明所构建的流式语音识别模型包括有注意力重打分阶段,在对该模型进行训练以及获取实时语音识别结果的过程中,利用完整的语音编码对流式语音识别的结果进行优化,在流式识别的过程中也可以充分利用完整的语音信息,在保持流式低延迟的同时有效提高了识别准确率。

    全双工双向中继网络的空时自编码方法

    公开(公告)号:CN105262573A

    公开(公告)日:2016-01-20

    申请号:CN201510567123.8

    申请日:2015-09-08

    CPC classification number: H04L5/0023 H04L5/14 H04L25/024

    Abstract: 本发明公开一种全双工双向中继网络的空时自编码方法,解决了现有技术出现的残余环路干扰降低全双工系统性能和频谱效率低的问题。本发明的具体步骤包括:首先,采用最小均方误差估计方法,估计信道参数;其次,终端节点采用正交相移键控QPSK方法调制待发送信号;再次,中继节点通过去除自身的环路信号对终端节点的发射信号进行估计并进行异步空时编码;最后,终端节点在抵消自身回路干扰的基础上,再通过构造等效信道矩阵进行空时解码。本发明具有适用于全双工双向通信和提高全双工通信可靠性的优点,提高了协作通信系统频谱效率。

    基于声纹特征的目标说话人实时语音信息提取方法

    公开(公告)号:CN115240688A

    公开(公告)日:2022-10-25

    申请号:CN202210837364.X

    申请日:2022-07-15

    Abstract: 本发明提出了一种基于声纹特征的目标说话人实时语音提取的方法,实现步骤为:获取纯净语音训练样本集和混合语音训练样本集;构建声纹提取模型V;对声纹提取模型V进行迭代训练;构建基于声纹特征的目标说话人实时语音信息提取模型M;对目标说话人实时语音信息提取模型M进行迭代训练;提取目标说话人的实时语音信息。本发明目标说话人实时语音信息提取模型中的特征拼接模块通过简单的拼接操作,实现对目标说话人的声纹特征与换和语音特征的融合,并采用了轻量且实时处理的LSTM网络,有效的降低了提取目标说话人语音信息的延迟和对计算资源的需求,提高了语音提取操作的实时性。

    基于注意力重打分的流式语音识别方法

    公开(公告)号:CN115240645A

    公开(公告)日:2022-10-25

    申请号:CN202210864507.6

    申请日:2022-07-21

    Abstract: 本发明提出了一种基于注意力重打分的流式语音识别方法,实现步骤为:获取训练数据集;构建基于注意力重打分的流式语音识别模型;对流式语音识别模型进行迭代训练;获取实时语音识别结果。本发明所构建的流式语音识别模型包括有注意力重打分阶段,在对该模型进行训练以及获取实时语音识别结果的过程中,利用完整的语音编码对流式语音识别的结果进行优化,在流式识别的过程中也可以充分利用完整的语音信息,在保持流式低延迟的同时有效提高了识别准确率。

    全双工双向中继网络的空时自编码方法

    公开(公告)号:CN105262573B

    公开(公告)日:2018-03-06

    申请号:CN201510567123.8

    申请日:2015-09-08

    Abstract: 本发明公开一种全双工双向中继网络的空时自编码方法,解决了现有技术出现的残余环路干扰降低全双工系统性能和频谱效率低的问题。本发明的具体步骤包括:首先,采用最小均方误差估计方法,估计信道参数;其次,终端节点采用正交相移键控QPSK方法调制待发送信号;再次,中继节点通过去除自身的环路信号对终端节点的发射信号进行估计并进行异步空时编码;最后,终端节点在抵消自身回路干扰的基础上,再通过构造等效信道矩阵进行空时解码。本发明具有适用于全双工双向通信和提高全双工通信可靠性的优点,提高了协作通信系统频谱效率。

    基于声纹特征的目标说话人实时语音信息提取方法

    公开(公告)号:CN115240688B

    公开(公告)日:2024-09-03

    申请号:CN202210837364.X

    申请日:2022-07-15

    Abstract: 本发明提出了一种基于声纹特征的目标说话人实时语音提取的方法,实现步骤为:获取纯净语音训练样本集和混合语音训练样本集;构建声纹提取模型V;对声纹提取模型V进行迭代训练;构建基于声纹特征的目标说话人实时语音信息提取模型M;对目标说话人实时语音信息提取模型M进行迭代训练;提取目标说话人的实时语音信息。本发明目标说话人实时语音信息提取模型中的特征拼接模块通过简单的拼接操作,实现对目标说话人的声纹特征与换和语音特征的融合,并采用了轻量且实时处理的LSTM网络,有效的降低了提取目标说话人语音信息的延迟和对计算资源的需求,提高了语音提取操作的实时性。

Patent Agency Ranking