-
公开(公告)号:CN108175426A
公开(公告)日:2018-06-19
申请号:CN201711315604.5
申请日:2017-12-11
Applicant: 东南大学
IPC: A61B5/16
Abstract: 本发明公开了一种基于深度递归型条件受限玻尔兹曼机的测谎方法,首先在连续语音段落中,利用条件受限玻尔兹曼机对时间序列具有良好的建模特性和简易的推理过程,对训练样本进行建模,得到说话人是否说谎的高阶统计信息;接着用该高阶统计信息和训练样本的标签对递归神经网络进行有监督的参数训练。在获得条件受限玻尔兹曼机和递归神经网络的初始化参数后,将这两个基本网络单元由下至上搭建而成;并在验证数据集上,基于最小二乘回归微调递归神经网络的参数;利用建立的网络,对说话人的语音信号特征进行测试。本发明能够自动得到测谎的结果,且具有相对较高的识别率,该方法对评测者的专业知识和技能要求不高,有较高的测试效率。
-
公开(公告)号:CN103531198B
公开(公告)日:2016-03-23
申请号:CN201310534319.8
申请日:2013-11-01
Applicant: 东南大学
Abstract: 本发明公开了一种基于伪说话人聚类的语音情感特征规整化方法,适合应用于非特定说话人情感识别。本发明首先提取出能够反映说话人信息的特征空间;接着在此特征空间内进行模糊聚类,自动获得情感语料中的说话人的身份信息,据此信息进行“伪说话人”分组,每一条样本按照其相似程度划分到不同的伪说话人分组中;而后根据每条样本的伪说话人组别信息,进行情感特征的规整化;最终在规整化后的数据中加入相应组别的模糊隶属度信息。通过上述处理过程,使得情感特征空间中的样本分布更加清晰有效,降低了大量说话人带来的特征差异,增强了说话人鲁棒性。
-
公开(公告)号:CN103679144A
公开(公告)日:2014-03-26
申请号:CN201310652771.4
申请日:2013-12-05
Applicant: 东南大学
IPC: G06K9/00
Abstract: 本发明公布了一种基于计算机视觉的复杂环境下果蔬识别方法,本发明包括以下步骤:首先,获取待识别果蔬图像;其次,将获取到的果蔬图像进行预处理,预处理后的图像被分割为果蔬区域和背景区域;提取预处理后的果蔬图像特征,其中提取的图像特征为颜色特征和纹理特征;然后,采用自适应加权方法对果蔬特征进行融合;最后,采用最近邻分类算法对果蔬进行识别。本发明相比已有的果蔬识别系统,算法复杂度低,识别率高,具有很强的使用性,可以有效的应用于日常生活中。
-
-
-
公开(公告)号:CN108175426B
公开(公告)日:2020-06-02
申请号:CN201711315604.5
申请日:2017-12-11
Applicant: 东南大学
IPC: A61B5/16
Abstract: 本发明公开了一种基于深度递归型条件受限玻尔兹曼机的测谎方法,首先在连续语音段落中,利用条件受限玻尔兹曼机对时间序列具有良好的建模特性和简易的推理过程,对训练样本进行建模,得到说话人是否说谎的高阶统计信息;接着用该高阶统计信息和训练样本的标签对递归神经网络进行有监督的参数训练。在获得条件受限玻尔兹曼机和递归神经网络的初始化参数后,将这两个基本网络单元由下至上搭建而成;并在验证数据集上,基于最小二乘回归微调递归神经网络的参数;利用建立的网络,对说话人的语音信号特征进行测试。本发明能够自动得到测谎的结果,且具有相对较高的识别率,该方法对评测者的专业知识和技能要求不高,有较高的测试效率。
-
公开(公告)号:CN104537386B
公开(公告)日:2019-04-19
申请号:CN201410677256.6
申请日:2014-11-21
Applicant: 东南大学
Abstract: 本发明公开了一种基于级联混合高斯形状模型的多姿态图像特征点配准方法。该方法针对任意一种图像特征点定位器的定位结果,本发明中的配准方法能够显著提高其定位精度。本发明中所述的配准方法主要包括以下步骤:一、在多姿态的图像数据库上进行混合高斯形状模型的建模;二、采用一种级联的混合高斯形状模型对特征点进行校准,在每一级中,遍历特征点可能组成的形状,通过计算该形状对应的似然概率的阈值来判断出错误定位的特征点;三、采用正确特征点的高斯分布条件概率进行错误特征点的纠错。
-
公开(公告)号:CN106303874B
公开(公告)日:2019-03-19
申请号:CN201610974157.3
申请日:2016-10-28
Applicant: 东南大学
IPC: H04R25/00
Abstract: 本发明公开了一种数字助听器中自适应验配方法。传统的助听器验配过程离不开听力专家,验配的结果好坏直接取决于听力专家的专业水平,此外,对于发展中国家而言,相当一部分地区的医疗条件达不到验配标准,利用本方法可以有效地实现助听器的自适应验配,即脱离验配专家的助听器验配过程。本发明以二维高斯分布的求和形式作为验配模型,以交互式进化计算作为寻优方法,结合本发明设计的人机交互接口,通过30代以内的人机交互即可确定数字助听器的验配模型。实验结果表明,本发明提出的方法可以有效地实现数字助听器的自适应验配,摆脱了听力专家对于数字助听器验配过程的限制。
-
公开(公告)号:CN105047194B
公开(公告)日:2018-08-28
申请号:CN201510450338.1
申请日:2015-07-28
Applicant: 东南大学
Abstract: 本发明公开了一种用于语音情感识别的自学习语谱图特征提取方法,首先对已知情感的标准语料库中的语音进行预处理,得到量化后的语谱图灰度图像;然后计算所得到的语谱图灰度图像的Gabor语谱图;再采用可辨别特征学习算法对提取到的LBP统计直方图进行训练,构建不同尺度、不同方向下的全局显著性模式集合;最后采用全局显著性集合对语音不同尺度、不同方向下Gabor图谱的LBP统计直方图进行特征选择,得到处理后的统计直方图,将N个统计直方图级联,得到适合情感分类的语音情感特征。本发明提出的情感特征可以较好地识别不同种类的情感,识别率显著优于现有的声学特征。
-
公开(公告)号:CN106205636A
公开(公告)日:2016-12-07
申请号:CN201610533439.X
申请日:2016-07-07
Applicant: 东南大学
IPC: G10L25/63
CPC classification number: G10L25/63
Abstract: 本发明公开了一种基于MRMR准则的语音情感识别特征融合方法,包括如下步骤:1、提取语音信号的韵律特征、音质特征和谱特征;2、对提取的韵律特征、音质特征和谱特征采用MRMR准则进行特征融合。本发明公开的语音情感识别特征融合方法融合了语音的韵律特征、音质特征和谱特征,在保证识别率的同时有效优化了特征向量维度,提高了语音情感识别系统的效率。
-
-
-
-
-
-
-
-
-