-
公开(公告)号:CN114299917A
公开(公告)日:2022-04-08
申请号:CN202210004168.4
申请日:2022-01-04
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于基频差异补偿的StyleGAN(Style Generative Adversarial Network)情感语音转换方法,首先提出了将风格编码器提取的多种情感风格特征作为标签信息,采用自适应实例归一化将情感风格特征与内容特征相融合,使生成器不仅能够充分学习目标情感的风格特征,而且可以实现不在训练集内的情感之间的转换,即完成开集情形下的任意情感之间的转换;进一步,在传统对数高斯归一化基频转换的基础上,提出了基频差异补偿,从而增强不同情感之间的幅度差异,解决了传统对数高斯归一化基频转换后基频仅呈现整体上升,而均值和均方差无法准确描述不同情感的基频包络幅度差异的问题,有效提升转换后语音的情感饱和度,实现开集情形下高质量的情感语音转换。