-
公开(公告)号:CN109872725B
公开(公告)日:2022-10-18
申请号:CN201711267389.6
申请日:2017-12-05
Applicant: 富士通株式会社
Abstract: 本申请公开了一种多视角向量处理方法和设备。多视角向量x用于表征包含至少两个不可分立的视角的信息的对象。该方法包括:建模步骤,建立该多视角向量的模型,使得其至少包含以下分量:所述多视角向量的总体均值μ;所述多视角向量的每一个视角的分量;以及噪声∈;训练步骤,利用所述多视角向量x的训练数据获得所述总体均值μ、每一个视角的分量的参数和所述噪声∈的参数;以及匹配步骤,利用所述总体均值μ、每一个视角的分量的参数和所述噪声∈的参数,计算两个多视角向量的各个视角分量相同和不同的似然性分量,对所计算的似然性分量进行预处理以获得近似似然性,并且依据所述近似似然性来判断两个多视角向量是否匹配。
-
公开(公告)号:CN108268948B
公开(公告)日:2022-02-18
申请号:CN201710001199.3
申请日:2017-01-03
Applicant: 富士通株式会社
Abstract: 本发明涉及数据处理装置和数据处理方法。根据本发明的数据处理装置包括:提取单元,用于从多个训练音频数据中的每个训练音频数据提取训练音频数据的i向量;划分单元,用于将i向量划分为多个簇,并计算每个簇的簇心;计算单元,用于计算每个训练音频数据的i向量与每个簇的簇心之间的距离;以及训练单元,用于训练深度神经网络DNN模型,其中,训练单元将每个训练音频数据的i向量与每个簇的簇心之间的距离作为DNN模型的输出真值。使用根据本发明的数据处理装置和数据处理方法,可以训练DNN模型以输出音频数据的i向量与每个簇心之间的距离,从而减小在音频数据注册和识别过程中产生的计算量,同时能够得到更加充分的标签信息。
-
公开(公告)号:CN108288470B
公开(公告)日:2021-12-21
申请号:CN201710019531.9
申请日:2017-01-10
Applicant: 富士通株式会社
Abstract: 本发明涉及基于声纹的身份验证方法和装置。该方法包括:一种基于声纹的身份验证方法,包括:接收未知语音;利用预先训练得到的基于神经网络的声纹提取器来提取所述未知语音中的声纹;将所提取的声纹与预先存储的声纹进行拼接得到拼接的声纹;以及利用预先训练的分类模型对所述拼接的声纹进行判断,验证所提取的声纹与预先存储的声纹是否来自同一个人。根据本发明的身份验证方法和装置,可以从较短的语音中提取说话者的全息声纹,使得验证结果更加鲁棒。
-
公开(公告)号:CN113450775A
公开(公告)日:2021-09-28
申请号:CN202010161930.0
申请日:2020-03-10
Applicant: 富士通株式会社
Abstract: 本公开内容涉及模型训练装置、模型训练方法及存储介质。根据一个实施例,该模型训练装置包括:提取单元,被配置成提取样本特征;第一训练单元,被配置成使用第一声音事件样本集训练单声音事件检测模型;检测单元,被配置成针对第二声音事件样本集中的每个第二声音事件样本,通过使用训练过的单声音事件检测模型,基于第二样本特征检测第二声音事件样本来确定相应检测结果;第二训练单元,被配置成使用第一样本特征、第二样本特征及相应检测结果训练多声音事件检测模型。本公开内容的方法、装置和存储介质至少能有助于实现以下效果之一:使对多声音事件检测模型的训练变得容易,以及有利于得到具有期望的准确度的多声音事件检测模型。
-
公开(公告)号:CN111696572A
公开(公告)日:2020-09-22
申请号:CN201910188493.9
申请日:2019-03-13
Applicant: 富士通株式会社
IPC: G10L21/0272 , G10L25/30
Abstract: 公开了一种语音分离装置、方法及介质,所述语音分离装置包括:预处理单元,其对包含预定数目的语音信号混合而成的混合语音信号进行预处理以得到混合表达;多分支网络,其具有多个分支,每个分支使用不同的感受野处理所述混合表达以获取不同时间尺度的信息;分支权重网络,其基于所述混合语音信号为所述多分支网络中的每个分支的结果分配权重,其中,所述多分支网络基于获取的不同时间尺度的信息和为每个分支的结果分配的权重得到估计特征;掩模生成单元,其基于所述估计特征针对所述预定数目的语音中的每一个生成掩模;以及分离单元,其基于所述掩模和所述混合表达生成分离的语音信号。
-
公开(公告)号:CN111652664A
公开(公告)日:2020-09-11
申请号:CN201910160233.0
申请日:2019-03-04
Applicant: 富士通株式会社
Abstract: 公开了一种训练混合元学习网络的装置和方法。装置包括进行下述处理的单元:获得推荐神经网络的损失并计算泛化损失,每个推荐神经网络具有嵌入层;计算泛化损失相对每个推荐神经网络的权重参数的梯度;将梯度分别输入到第一元学习网络,获得每个推荐神经网络的权重参数的更新量;基于更新量更新推荐神经网络的权重参数;使得朝向推荐神经网络的损失更小的方向训练第一元学习网络;计算过时推荐项集中的每个推荐项与新出现推荐项集中的每个推荐项之间的第一相似度和第二相似度;朝向相似度损失更小的方向训练嵌入层和第二元学习网络的权重参数;迭代地进行上述处理直到满足第一迭代终止条件为止。
-
公开(公告)号:CN111128222A
公开(公告)日:2020-05-08
申请号:CN201811276692.7
申请日:2018-10-30
Applicant: 富士通株式会社
IPC: G10L21/0272 , G10L25/30
Abstract: 本发明涉及一种语音分离方法,包括:使用基于核的至少一个卷积滤波器对语音数据进行第一卷积运算;对经第一卷积运算的数据执行降采样;使用激活函数处理经降采样后的数据;对经激活函数处理后的数据进行第二卷积运算;通过应用至少一个深度神经网络模型识别经第二卷积运算后的数据与讲话人间的对应关系;根据对应关系提取与讲话人对应的数据;使用全连接层处理所提取的数据;对经全连接层处理的数据分别进行第二卷积运算的逆运算和第一卷积运算的逆运算以生成对应于讲话人的语音数据。
-
公开(公告)号:CN108875463A
公开(公告)日:2018-11-23
申请号:CN201710343390.6
申请日:2017-05-16
Applicant: 富士通株式会社
IPC: G06K9/00
CPC classification number: G06K9/6277 , G06K9/481 , G06K9/6215 , G06K9/6256 , G06K9/6262 , G10L17/00
Abstract: 本申请公开了一种多视角向量处理方法和设备。其中,所述多视角向量x用于表征包含至少两个不可分立的视角的信息的对象,该方法包括:建模步骤,建立该多视角向量的模型,使得其至少包含以下分量:所述多视角向量的总体均值μ;所述多视角向量的每一个视角的分量;以及噪声∈;以及训练步骤,利用所述多视角向量x的训练数据获得所述总体均值μ、每一个视角的分量的参数和所述噪声∈的参数。该设备包括处理器和存储有程序代码的存储介质,所述程序代码当被处理器执行时,实现如前所述的方法。
-
公开(公告)号:CN107808664A
公开(公告)日:2018-03-16
申请号:CN201610773161.3
申请日:2016-08-30
Applicant: 富士通株式会社
CPC classification number: G10L15/16 , G10L15/02 , G10L15/063
Abstract: 本申请实施例提供一种基于稀疏神经网络的语音识别方法、装置和电子设备,该方法包括:对待识别语音片段进行处理,以获得所述待识别语音片段中的每个语音帧的特征向量;采用稀疏神经网络对所述特征向量进行识别,以获得与所述特征向量对应的状态标签值(state id),其中,所述稀疏神经网络的权重矩阵基于维度变换而得到;以及采用解码模型对所述状态标签值进行解码,以得到所述待识别语音片段对应的文本。根据本实施例,语音识别用的稀疏神经网络的规模被缩小,并且,该稀疏神经网络的训练时间较短,训练结果被改善。
-
公开(公告)号:CN107274904A
公开(公告)日:2017-10-20
申请号:CN201610216660.2
申请日:2016-04-07
Applicant: 富士通株式会社
Abstract: 本发明公开了一种说话人识别方法和说话人识别设备。该说话人识别方法包括:从待识别说话人语料中,提取待识别说话人的语音特征;基于所提取的待识别说话人的语音特征、体现语音特征在特征空间中的分布的通用背景模型UBM、体现语音特征在特征空间中的分布的变化的统计值的梯度通用说话人模型GUSM、体现环境变化的总变化矩阵,得到待识别说话人模型;以及比较待识别说话人模型和已知说话人模型,以确定待识别说话人是否为已知说话人之一。
-
-
-
-
-
-
-
-
-