-
公开(公告)号:CN112686027B
公开(公告)日:2023-06-09
申请号:CN202011550194.4
申请日:2020-12-24
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
IPC: G06F40/237 , G06F40/58 , G06N3/0455
Abstract: 本发明属于人工智能翻译技术领域,涉及一种基于周期函数的机器翻译输出修正方法及系统,方法包含:获取源语言和目标语言两者对应的平行语料,对词汇进行编码得到字典表和对应的索引值;对源语言语句和位置信息进行编码,通过编码器神经网络获取信息编码,并利用周期函数对信息编码特征进行提取,获取编码器神经网络最终输出;对目标语言语句和位置信息进行编码,将编码结果和编码器神经网络最终输出作为解码器神经网络输入,利用周期函数对解码器神经网络输出特征进行提取来获取解码器神经网络最终输出;将解码器神经网络最终输出经过特征映射获取字典表中索引编号,最终输出为索引编号对应词汇。本发明能够有效提升机器翻译质量和用户体验度。
-
公开(公告)号:CN113505611B
公开(公告)日:2022-04-15
申请号:CN202110780410.2
申请日:2021-07-09
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明提供一种在生成对抗中获得更好的语音翻译模型的训练方法和系统。该方法包括收集训练数据,利用训练数据中的转录‑翻译数据对训练MT模型;利用收缩机制对ST模型的输入长度进行压缩,使得语音和文本的编码层输出长度近似相同,包括:先采用CTC损失帮助ST模型预测语音的转录,捕捉语音的声学信息;然后利用CTC存在的峰值现象去除ST模型编码层状态中的冗余信息;采用对抗器通过“最大最小”的方法,使ST模型的编码层输出分布拟合MT模型的编码层输出分布,帮助ST模型捕捉到更多的语义信息;以CTC损失作为附加损失,结合端到端ST模型的损失对整个语音翻译模型进行联合训练。本发明能提升语音翻译模型的识别性能,进而提高语音翻译效率和质量。
-
公开(公告)号:CN112735460A
公开(公告)日:2021-04-30
申请号:CN202011557418.4
申请日:2020-12-24
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
IPC: G10L21/0216 , G10L25/30 , G10L15/20
Abstract: 本发明属于语音增强技术领域,特别涉及一种基于时频掩蔽值估计的波束成形方法及系统,方法包含:获取多通道语音序列,通过傅里叶变换提取幅度谱特征和空域特征;对幅度谱特征通过对数变换得到多通道语音频谱特征序列,送入预先训练优化的神经网络模型获取复值时频掩蔽值;将复值时频掩蔽值转换为语音存在概率,利用概率模型获取时频掩蔽值;由时频掩蔽值及多通道语音特征序列计算语音信号协方差矩阵,对协方差矩阵进行特征值分解获取波束成形滤波器系数;结合波束成形滤波器系数,利用波束成形滤波器对多通道语音序列语音特征滤波处理,得到增强语音信号。本发明集成神经网络和空域聚类进行时频掩蔽值估计,提升波束形成和语音识别的性能。
-
公开(公告)号:CN111046939A
公开(公告)日:2020-04-21
申请号:CN201911241048.0
申请日:2019-12-06
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明属于深度学习与计算机可视化技术领域,公开一种基于注意力的CNN类别激活图生成方法,包括:步骤1、计算特征图M=(M0,M1,...,MK-1)每个像素点的梯度值作为神经元类别相关的空间注意力权重;步骤2、获取各类别神经元对应的连接权重作为通道注意力权重;步骤3、根据空间注意力权重及通道注意力权重生成CNN类别激活图。本发明将类别激活权重作用注意力权重,同时利用特征图的通道-空间位置重要性,与CAM、Grad-CAM方法相比,生成的类别激活图的可视化效果更好,并且该方法不受网络结构的限制,使用更加灵活。
-
公开(公告)号:CN112686058A
公开(公告)日:2021-04-20
申请号:CN202011557480.3
申请日:2020-12-24
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明属于语音翻译技术领域,涉及一种BERT嵌入语音翻译模型训练方法、系统及语音翻译方法和设备,训练方法包含:收集模型训练数据;利用训练数据中的源语言预训练BERT模型,并将预训练后的BERT模型作为机器翻译模型编码层,并利用成对的源语言和目标语言文本对机器翻译模型进行训练,通过设置机器翻译模型中解码层层数来获取多个机器翻译模型;利用源语言成对的语音翻译数据训练语音识别模型;将训练后的语音识别模型编码层作为语音翻译模型编码层初始化参数,并采用熵加权方式对多个机器翻译模型输出进行加权来训练语音翻译模型,结合模型损失函数完成语音翻译模型训练。本发明提升语音翻译模型的识别性能,进而提高语音翻译效率和质量。
-
公开(公告)号:CN112686027A
公开(公告)日:2021-04-20
申请号:CN202011550194.4
申请日:2020-12-24
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
IPC: G06F40/237 , G06F40/58 , G06N3/04
Abstract: 本发明属于人工智能翻译技术领域,涉及一种基于周期函数的机器翻译输出修正方法及系统,方法包含:获取源语言和目标语言两者对应的平行语料,对词汇进行编码得到字典表和对应的索引值;对源语言语句和位置信息进行编码,通过编码器神经网络获取信息编码,并利用周期函数对信息编码特征进行提取,获取编码器神经网络最终输出;对目标语言语句和位置信息进行编码,将编码结果和编码器神经网络最终输出作为解码器神经网络输入,利用周期函数对解码器神经网络输出特征进行提取来获取解码器神经网络最终输出;将解码器神经网络最终输出经过特征映射获取字典表中索引编号,最终输出为索引编号对应词汇。本发明能够有效提升机器翻译质量和用户体验度。
-
公开(公告)号:CN111046962A
公开(公告)日:2020-04-21
申请号:CN201911300222.4
申请日:2019-12-16
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明公开一种基于稀疏注意力的卷积神经网络模型的特征可视化方法及系统,该方法包括:对输入彩色图像进行特征提取,输出多通道特征图;使用像素级注意力对特征图进行加权调整;采用交叉熵损失函数作为分类损失函数,对像素级注意力进行L1正则化约束,并对分类损失函数进行改进,对加权调整后的特征图进行训练,得出分类结果;将调整后的特征图与原始输入的彩色图像进行叠加,得出彩色图像重要特征的可视化展示,从而给出对分类结果的可视化解释;该系统包括特征提取模块、注意力模块、分类模块及特征可视化模块。本发明提升图像分类准确率的同时,采用特征可视化展示出该图像最重要的特征区域。
-
公开(公告)号:CN117972058A
公开(公告)日:2024-05-03
申请号:CN202410144351.3
申请日:2024-02-01
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G06F16/332 , G06F18/23 , G06F18/22 , G06N5/02
Abstract: 本发明涉及人工智能对话技术领域,特别涉及一种基于对话思维链的隐性知识引导对话生成方法及系统,通过获取与对话源语句相关的对话背景知识,所述对话背景知识用于描述对话任务要求及对话语句规律;将对话源语句和对话背景知识输入至预配置的大语言模型中,以利用对话背景知识作为提示指令,通过大语言模型生成对话背景知识思维链下针对对话源语句的对话回复。本发明将隐性知识以思维链方式来促使模型能够更准确调用内部知识,使模型能够搜寻内部知识并合理使用来生成有针对性、高质量的对话内容,进而较好的完成对话任务,便于在语言翻译、文本对话和文本问答等智能对话系统中的应用部署,具有较好的应用前景。
-
公开(公告)号:CN116611473A
公开(公告)日:2023-08-18
申请号:CN202310629724.1
申请日:2023-05-31
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G06N3/045 , G06N3/0455 , G06N3/09 , G06N3/084
Abstract: 本发明涉及人工智能应用技术领域,特别涉及一种面向序列任务的Transformer监督学习双重一致性正则化方法及系统,通过对训练输入序列添加扰动,得到用于模型训练的扰动序列数据;基于扰动序列数据确定基础模型训练损失、及基础模型和均值模型之间一致性损失,其中,基础模型为采用Transformer结构建模的序列任务端到端模型,均值模型为基于基础模型并利用指数移动平均值对基础模型反向传播更新参数进行迁移来获取的模型结构;基于基础模型训练损失和基础模型和均值模型之间一致性损失获取基础模型的整体训练损失;基于整体训练损失调整基础模型参数,得到目标序列任务端到端模型。本发明可提升序列生成模型鲁棒性,便于机器翻译、文本摘要等序列任务中应用。
-
公开(公告)号:CN115561739A
公开(公告)日:2023-01-03
申请号:CN202211128692.9
申请日:2022-09-16
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明提供一种基于WaveGAN的水声信号仿冒方法。该方法包括:采用WaveGAN作为水声信号仿冒模型并训练;其中,训练过程具体包括:将随机噪声输入至生成器,通过学习真实水声信号的分布生成仿冒水声信号;将所述仿冒水声信号和所述真实水声信号输入判别器,利用损失函数使得WaveGAN模型进行收敛,收敛后的WaveGAN模型即为水声信号仿冒模型;将测试样本输入至训练好的生成器中,得到仿冒水声信号。本发明创新性地将生成对抗网络引入水声信号仿冒领域,通过实验从听觉感受、波形、语谱图、概率密度分布等角度对仿冒效果进行评估,均取得了较为理想的效果。
-
-
-
-
-
-
-
-
-