-
公开(公告)号:CN111091847A
公开(公告)日:2020-05-01
申请号:CN201911252525.3
申请日:2019-12-09
Applicant: 北京计算机技术及应用研究所
IPC: G10L21/0272 , G10L21/0224 , G10L21/0232 , G10L25/18 , G10L25/21 , G10L25/27 , G06K9/62
Abstract: 本发明涉及一种基于并改进的深度聚类语音分离方法,其中,包括:步骤一:混合实验数据,提取对数功率谱特征;步骤二:搭建改进的深度聚类语音分离模型,并用训练集进行模型训练;步骤三:将测试集混合语音通过步骤二训练好的深度聚类语音分离模型得出嵌入空间向量vi,对其在嵌入子空间上通过meanshift聚类方法聚类,将得到的结果作为训练目标理想二值掩蔽值,利用理想二值掩蔽值与输入语音信号特征计算得出分离出的两个语音信号的特征估计;步骤四:波形重构,恢复语音信号。本发明改进当前基于深度聚类的语音分离方法,使其在低信噪比混合语音输入的情况下效果得到提升。
-
公开(公告)号:CN110739003A
公开(公告)日:2020-01-31
申请号:CN201911012632.9
申请日:2019-10-23
Applicant: 北京计算机技术及应用研究所
IPC: G10L21/0208 , G10L25/27 , G10L25/03
Abstract: 本发明涉及一种基于多头自注意力机制的语音增强方法,涉及语音增强技术领域。本发明本发明针对现有基于注意力机制的语音增强方法无法在注意力计算过程中明显抑制噪声的问题,基于对人类在听觉感知的过程中存在掩蔽效应的研究及利用,提出了一种基于多头自注意力机制的语音增强方法,该方法实现了在注意力机制运算的过程中抑制噪声部分,提高了语音增强性能。
-
公开(公告)号:CN115391266A
公开(公告)日:2022-11-25
申请号:CN202211080548.2
申请日:2022-09-05
Applicant: 北京计算机技术及应用研究所
Abstract: 本发明涉及一种MXM型智能加速模块,属于智能加速领域。本发明的智能加速模块包括Atlas200模块、SD Card、PHY芯片、电压转换模块及MXM连接器。该智能加速模块能够实现对主流AI算法模型的支持及推理过程的加速,可适配国产化计算机和国产化操作系统。本发明提出遵循MXM接口规范的智能加速模块,设计的NPU模块即可以工作在RC模式,也可以工作在EP模式;设计的插拔式MXM型接口既保证NPU模块与连接器紧配合,保证数据传输的稳定性,又具有组装便捷、更换方便的优点。插拔式MXM型接口可实现NPU模块与连接器之间的紧配合,提高了组件之间使用的便捷性和更换的灵活性,基于MXM3.1标准的Type B规范,定义部分管脚点位,实现NPU模块通过MXM连接器与主机之间的通信。
-
公开(公告)号:CN110867192A
公开(公告)日:2020-03-06
申请号:CN201911011966.4
申请日:2019-10-23
Applicant: 北京计算机技术及应用研究所
IPC: G10L21/0208 , G10L21/02 , G10L25/30 , G10L25/03
Abstract: 本发明涉及一种基于门控循环编解码网络的语音增强方法,涉及语音增强技术领域。本发明针对针对现有的语音增强方法没有利用上下文信息与当前待增强语音帧之间联系的问题,基于人类听觉感知的过程的研究,提出了一种基于门控循环编解码网络的语音增强方法,在语音增强任务中引入编解码器架构,使用编码器对相邻多帧语音信号建模以提取上下文信息,利用解码器挖掘当前待增强语音帧和上下文信息之间的联系,提高了语音增强性能。
-
公开(公告)号:CN110739003B
公开(公告)日:2022-10-28
申请号:CN201911012632.9
申请日:2019-10-23
Applicant: 北京计算机技术及应用研究所
IPC: G10L21/0208 , G10L25/27 , G10L25/03
Abstract: 本发明涉及一种基于多头自注意力机制的语音增强方法,涉及语音增强技术领域。本发明本发明针对现有基于注意力机制的语音增强方法无法在注意力计算过程中明显抑制噪声的问题,基于对人类在听觉感知的过程中存在掩蔽效应的研究及利用,提出了一种基于多头自注意力机制的语音增强方法,该方法实现了在注意力机制运算的过程中抑制噪声部分,提高了语音增强性能。
-
-
-
-