一种基于混合专家结构大模型训练的多模态数据解析方法

    公开(公告)号:CN118551220B

    公开(公告)日:2025-03-28

    申请号:CN202410597545.9

    申请日:2024-05-14

    Abstract: 本发明公开了一种基于混合专家结构大模型训练的多模态数据解析方法,所述方法包括:获取历史多模态数据,并对历史多模态数据进行预处理,得到多组预处理多模态数据;获取预设大规模训练模型,根据预设大规模训练模型中的专家网络数量确定训练并行模式,并根据训练并行模式对多组预处理多模态数据进行切分处理,构建得到多模态数据训练集;根据多模态数据训练集对预设大规模训练模型进行模型训练,得到多模态数据解析模型;获取当前多模态数据,并将当前多模态数据输入至所述多模态数据解析模型,得到多模态数据解析结果。本发明通过构建多模态数据解析模型能够支持多模态数据并行处理以及多专家网络进行并行训练,实现了对多模态数据的高效解析。

    一种基于多语言预训练大模型的伪语言族聚类方法及装置

    公开(公告)号:CN117688176B

    公开(公告)日:2024-09-24

    申请号:CN202311653724.1

    申请日:2023-12-04

    Abstract: 本发明涉及文本机器翻译技术领域,特别是指一种基于多语言预训练大模型的伪语言族聚类方法及装置,方法包括:建立共享语言池;基于多语言预训练大模型,计算共享语言池中的语言对的费舍信息矩阵,获得共享语言池中的语言对的表征结果;根据表征结果对语言对之间的相似度进行计算,获得相似度值;根据相似度值,对语言对之间的相似性进行排序,根据预设边界值选择符合边界值的辅助语言对,完成基于多语言预训练大模型的伪语言族聚类。本发明使用多语言预训练本身的能力对语言对进行表征,更有效地选择并聚类辅助语言并提高其在不同模型和数据集之间的泛化性,最终提高低资源语言对在多语言协同训练下的翻译质量。

    一种同声传译模型训练方法及装置

    公开(公告)号:CN118395999B

    公开(公告)日:2024-09-10

    申请号:CN202410841712.X

    申请日:2024-06-27

    Abstract: 本发明提供一种同声传译模型训练方法、装置、设备及存储介质,涉及人工智能技术领域,方法包括:将源语言文字序列输入编码器,生成源语言文字序列的上下文表示;解码器结合历史生成的目标语言文字序列和源语言文字序列的上下文表示,通过掩码多头注意力机制进行推理,生成候选目标语言文字序列;基于翻译质量评估指标,将每个候选目标语言文字序列与源语言文字序列进行比较,确定每个候选目标语言文字序列的质量得分;将质量得分确定为目标函数的风险;采用梯度下降优化算法,最小化目标函数,根据目标函数通过反向传播算法对编码器和解码器进行迭代更新,生成同声传译模型。本发明可以训练出翻译的准确性和流畅性更高的同声传译模型。

    一种对用于问答的大语言模型进行样本筛选的方法及装置

    公开(公告)号:CN117493890A

    公开(公告)日:2024-02-02

    申请号:CN202410007433.3

    申请日:2024-01-03

    Abstract: 本发明涉及文本处理技术领域,特别是指一种对用于问答的大语言模型进行样本筛选的方法及装置,方法包括:从样本数据集中筛选出特定样本,基于特定样本对待训练大语言模型进行训练,得到前置模型;基于样本数据集以及前置模型,得到样本数据集中的每个样本数据的多个不同评分,进而确定出每个样本数据的一致性分数以及自信度分数,进而确定每个样本数据的质量评估分数;基于质量评估分数,筛选出微调样本数据;基于微调样本数据,对待训练大语言模型进行训练,得到训练好的大语言模型;基于待回答的用户问题以及训练好的大语言模型,得到更加对齐人类偏好的问题回答。采用本发明,可以提升模型处理和预测的准确性,提高用户问题回答的准确性。

    一种多模态翻译模型的训练方法及装置

    公开(公告)号:CN117058951A

    公开(公告)日:2023-11-14

    申请号:CN202311318445.X

    申请日:2023-10-12

    Abstract: 本发明公开了一种多模态翻译模型的训练方法及装置,涉及人工智能技术领域。包括:获取待生成手语视频的手语文本、和/或待生成手语文本的手语视频;将手语文本和/或手语视频输入到训练好的手语翻译模型;其中,手语翻译模型的训练采用无监督的训练方法;根据手语文本以及手语翻译模型,得到手语文本对应的手语视频,和/或,根据手语视频以及手语翻译模型,得到手语视频对应的手语文本。本发明在模型的训练过程中,采用无监督的训练方法,不需要对模型的训练数据进行人工标签标注,使用无标注数据可以实现手语视频生成任务的训练,并达到生成手语视频生成的效果,节省了人力物力,从而节省了手语翻译模型的训练成本。

    一种中文翻译方法和装置

    公开(公告)号:CN115496079B

    公开(公告)日:2023-02-03

    申请号:CN202211463449.2

    申请日:2022-11-22

    Abstract: 本发明涉及自然语言的处理及转换技术领域,特别是指一种中文翻译方法,所述方法包括:S1、对训练集的中文源数据进行外语化笔画序列建模,得到所述中文源数据的外语化笔画序列;S2、对所述外语化笔画序列进行密文数据增强,得到密文;S3、对所述外语化笔画序列的数据集和所述密文的数据集,以及对应译文的数据集进行联合子词学习,并对文本进行切分,得到后续模型训练的最终数据集;S4、用所述最终数据集,对变换器Transformer模型进行多源一致性训练,得到中文神经机器翻译模型;S5、使用所述中文神经机器翻译模型,将待翻译语句翻译成目标语句。采用本发明,明显地提升了翻译效果并减少了模型参数量。

    基于持续知识保护分解的小样本持续学习方法及系统

    公开(公告)号:CN119476410B

    公开(公告)日:2025-05-09

    申请号:CN202510026657.3

    申请日:2025-01-08

    Abstract: 本发明属于人工智能与深度学习领域,为了解决新旧知识的不平衡和适配性差的问题,提供基于持续知识保护分解的小样本持续学习方法及系统。其中,基于持续知识保护分解的小样本持续学习方法包括基于每个类别的回放样本数据及持续学习模型骨干网络,经奇异值分解得到知识敏感成分和冗余容量成分;在增量适配训练过程中,冻结知识敏感成分所对应的预训练线性权重矩阵;同时利用冗余容量成分来构建可学习的适配器,更新预训练线性权重矩阵;重新获取小样本回放数据,基于更新后的预训练线性权重矩阵再次进行奇异值分解及增量适配训练操作。其通过协方差矩阵的动态更新,实现了新旧知识的平衡和高效适配,提高了分类结果的准确性。

Patent Agency Ranking