-
公开(公告)号:CN117271717A
公开(公告)日:2023-12-22
申请号:CN202310992550.5
申请日:2023-08-08
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G06F16/332 , G06F40/166 , G06N5/022 , G06N3/0455 , G06N3/0442 , G06N3/0475 , G06N3/08 , G06N20/00
Abstract: 本发明涉及人工智能对话文本生成技术领域,特别涉及一种对话数据样本增强方法及对话文本生成模型预训练方法和系统,从收集的对话样本数据集中选取单轮对话,所述单轮对话包括对话内容、对话响应及对话最佳知识,其中,对话最佳知识为单轮对话主题相关程度最佳且辅助生成对话响应的外部知识;基于交叉轮换对单轮对话中的对话内容、对话响应及对话最佳知识进行交换,以生成新的扩展单轮对话;将原单轮对话和新的扩展单轮对话进行拼接,以获取数据增强后的对话样本数据集。本发明能够加强对已有知识对话数据的利用,在不增加数据标注成本的情况下,用简单的方法实现数据增强,提升模型性能,使模型在训练过程中获得不同视角下生成回复的能力。
-
公开(公告)号:CN115132171A
公开(公告)日:2022-09-30
申请号:CN202210778061.5
申请日:2022-06-28
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明提供一种基于任务的焦点损失提升多语言元学习语音识别方法。该方法基于任务的焦点损失改进多语言元学习对任务不平衡的忽略,基于每个任务的查询损失引入了难任务调节器,引导模型更加关注难任务,并且为了充分利用难任务的数据,同时使用支持集梯度与查询集梯度来更新元参数。此外,本发明还在样本层面解释了难任务调节器的意义,经过公式推导,发现它与任务内样本的预测概率乘积成反相关。通过使用本发明方法,可以使模型学习到的初始化更加均衡,更加充分地利用了所有源语言的知识,从而能够有效的对目标语言进行泛化。
-
公开(公告)号:CN109237344A
公开(公告)日:2019-01-18
申请号:CN201811338267.6
申请日:2018-11-12
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本申请公开了一种基于无线供电的智能悬浮灯,包括:可伸缩灯柱、安装在所述可伸缩灯柱上的灯托、灯本体、电源模块、无线供电模块、电磁悬浮模块、LED模块、语音感应模块、红外感应模块、触碰感应模块和蓝牙音响模块;其中:电源模块和无线供电模块,用于为悬浮灯提供无线工作电源;红外感应模块,用于基于红外感应信号对悬浮灯执行相应的控制;电池悬浮模块,用于控制灯本体悬浮;语音感应模块,用于基于语音信号对悬浮灯执行相应的控制;触碰感应模块,用于基于感应信号对悬浮灯执行相应的控制;蓝牙音响模块,用于实现蓝牙音响功能;LED模块,用于实现LED照明。本申请能够针对电磁悬浮的灯体实现手势控制、触碰控制、语音控制,具有智能便捷、易于操作的优点。
-
公开(公告)号:CN115410556B
公开(公告)日:2024-10-22
申请号:CN202210976069.2
申请日:2022-08-15
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明提供一种元对抗学习提升多语言预训练与低资源语音识别的方法,采用CTC‑注意力联合的端到端语音识别网络架构,在端到端语音识别网络架构中的编码器的输出端添加语言识别器,在元学习外循环中利用所述语言识别器与更新的语音识别模型对抗,引导更新的语音识别模型产生与语言无关的表征,缩小不同语言在语义空间中的差距;所述语言识别器由浅层至深层依次包括第一Linear层、第一Relu层、第二Linear层、第二Relu层、第三Linear层和softmax层。本发明可以解决不同语言数据规模与难度差异大导致ASR模型容易对一些语言产生倾向性以及不容易学习多种语言之间的共享语义空间的问题。
-
公开(公告)号:CN115410556A
公开(公告)日:2022-11-29
申请号:CN202210976069.2
申请日:2022-08-15
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明提供一种元对抗学习提升多语言预训练与低资源语音识别的方法,采用CTC‑注意力联合的端到端语音识别网络架构,在端到端语音识别网络架构中的编码器的输出端添加语言识别器,在元学习外循环中利用所述语言识别器与更新的语音识别模型对抗,引导更新的语音识别模型产生与语言无关的表征,缩小不同语言在语义空间中的差距;所述语言识别器由浅层至深层依次包括第一Linear层、第一Relu层、第二Linear层、第二Relu层、第三Linear层和softmax层。本发明可以解决不同语言数据规模与难度差异大导致ASR模型容易对一些语言产生倾向性以及不容易学习多种语言之间的共享语义空间的问题。
-
公开(公告)号:CN115132171B
公开(公告)日:2024-10-29
申请号:CN202210778061.5
申请日:2022-06-28
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
IPC: G10L15/00 , G10L15/28 , G10L15/02 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于任务的焦点损失提升多语言元学习语音识别方法。该方法基于任务的焦点损失改进多语言元学习对任务不平衡的忽略,基于每个任务的查询损失引入了难任务调节器,引导模型更加关注难任务,并且为了充分利用难任务的数据,同时使用支持集梯度与查询集梯度来更新元参数。此外,本发明还在样本层面解释了难任务调节器的意义,经过公式推导,发现它与任务内样本的预测概率乘积成反相关。通过使用本发明方法,可以使模型学习到的初始化更加均衡,更加充分地利用了所有源语言的知识,从而能够有效的对目标语言进行泛化。
-
公开(公告)号:CN112329832B
公开(公告)日:2023-01-31
申请号:CN202011165702.7
申请日:2020-10-27
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G06F18/241 , G06N3/0464 , G06N3/0475 , G06N3/08
Abstract: 本发明属于无源定位数据处理技术领域,公开一种基于深度卷积生成对抗网络的目标轨迹数据增强方法及系统,该方法将不平衡数据集的图片样本作为训练样本送入DCGAN进行训练,对轨迹数据集进行增强。首先,由生成器G生成与轨迹图片相似的数据,标签为假;然后,固定生成器的参数,将损失值反向传播更新判别器D的参数;接着,固定判别器D的参数,训练生成器G,使生成器G产生的轨迹片段能够使判别器D判断为真样本;最后,将损失值反向传播更新生成器G的参数。本发明所使用的DCGAN模型生成的图片与原图片有很强的相似性,能够达到数据增强的效果。
-
公开(公告)号:CN112329830B
公开(公告)日:2023-01-31
申请号:CN202011163539.0
申请日:2020-10-27
Applicant: 中国人民解放军战略支援部队信息工程大学
IPC: G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明属于无源定位轨迹数据挖掘技术领域,公开一种基于卷积神经网络和迁移学习的无源定位轨迹数据识别方法及系统,该方法在对无源定位轨迹数据进行图像转换与预处理的基础上,运用深度卷积神经网络模型对不同类别的轨迹片段进行轨迹识别,并利用迁移学习提高识别精度。首先,将无源定位轨迹数据转换为一个三通道的RGB轨迹图像,并进行相关预处理;然后,将多种不同拓扑结构的深度卷积神经网络模型的预训练权重迁移到训练数据集上,基于训练数据集构建多个深度卷积神经网络模型,对构建的多个深度卷积神经网络模型的模型参数进行微调,得到最终的识别结果。本发明所使用的DCNN模型和迁移学习方法可以有效地用于无源定位轨迹片段的识别。
-
公开(公告)号:CN117437908A
公开(公告)日:2024-01-23
申请号:CN202311353038.2
申请日:2023-10-18
Applicant: 中国人民解放军战略支援部队信息工程大学
Abstract: 本发明涉及人工智能语音识别技术领域,特别涉及一种基于元学习任务一致性的低资源语音识别模型训练方法,将样本数据按语种划分为训练集和验证集,将每个语种元学习的训练集和验证集再依次分成支持集和查询集;构建语音识别模型,并通过遍历样本数据中每个语种,基于训练集对每个语种下元学习任务中的语音识别模型进行训练,其中,基于支持集进行模型训练并获取任务梯度方向,利用梯度一致性调整各元学习任务权重,基于对应查询集和元学习任务权重更新模型参数;基于验证集数据对训练后的语音识别模型进行测试,利用测试性能最优的模型参数配置目标语音识别模型。本发明能够解决现有语音识别学习训练中的任务冲突问题,提升语音识别模型训练效果。
-
公开(公告)号:CN116229948A
公开(公告)日:2023-06-06
申请号:CN202211655769.8
申请日:2022-12-22
Applicant: 中国人民解放军战略支援部队信息工程大学 , 郑州信大先进技术研究院
Abstract: 本发明提供一种基于任务的多项式损失提升多语言元学习语音识别方法。该方法包括:步骤1:初始化语音识别模型,输入原始语音特征序列;步骤2:从多语言数据集中抽取任务Ti,将Ti分为支持集和查询集;步骤3:计算Ti的ASR损失,使用梯度下降得到在支持集上更新后的参数θi;步骤4:使用在支持集上更新后的参数θi在查询集上计算查询损失步骤5:根据Ti的计算得到Ti的多项式损失;步骤6:重复N次步骤2至步骤5,计算得到N个任务对应的多项式损失;步骤7:基于所有任务对应的多项式损失来更新语音识别模型参数θ;步骤8:重复步骤2至步骤7,直至更新后的语音识别模型fθ满足给定要求。
-
-
-
-
-
-
-
-
-