一种基于语言指导采样的指代表达理解方法

    公开(公告)号:CN117521011A

    公开(公告)日:2024-02-06

    申请号:CN202311542251.8

    申请日:2023-11-16

    Abstract: 本说明书公开了一种基于语言指导采样的指代表达理解方法,可以获取包括图像、指代表达文本及指代表达文本对应指代目标的真实目标框的训练集,通过视觉特征编码器获取包含语义信息的多尺度视觉特征,通过语言特征编码器提取语言特征,根据语言特征,对多尺度视觉特征进行特征采样,得到采样后特征,将采样后特征与多尺度视觉特征进行融合,得到目标特征,根据语言特征以及目标特征,对指代表达文本所指代的图像中的位置进行预测,得到预测目标框,从而对整体的网络进行训练,本发明基于语言指导采样,在语言特征的指导下,能够自适应地采样与语言特征相关的视觉特征,从而提升指代表达理解网络的性能。

    一种模型训练的方法、装置、存储介质及电子设备

    公开(公告)号:CN116795972B

    公开(公告)日:2024-01-09

    申请号:CN202311010097.X

    申请日:2023-08-11

    Abstract: 本说明书公开了一种模型训练的方法、装置、存储介质及电子设备,将若干个独立表达句输入该模型的生成器,以得到融合句,并将该融合句加入训练数据集,将该训练数据集中的待判别句输入该模型的来源判别器,以确定待判别句是否为原始句的判别结果,根据该判别结果分别确定该来源判别器的来源判别损失及生成器的来源生成损失,根据该来源生成损失及该来源判别损失,对该模型进行训练,其中,该模型的生成器用于将回复用户的若干独立表达句进行融合。本方法通过对模型中的生成器和来源判别器进行对抗训练,以使生成器生成接近原始句的融合句,获得语序正常、内容衔接自然不生硬的句子,(56)对比文件Jiaxian Guo.Long Text Generation viaAdversarial Training with LeakedInformation.arXiv.2017,第1-14页.

    一种增强BART预训练任务的句子排序方法及装置

    公开(公告)号:CN115879421B

    公开(公告)日:2024-01-09

    申请号:CN202310120728.7

    申请日:2023-02-16

    Abstract: 本发明公开了一种增强BART预训练任务的句子排序方法及装置,包括如下步骤:步骤1、从文本资源中提取有序的句子作为原始训练数据;步骤2、对原始训练数据进行预处理;步骤3、用预处理后的训练数据训练BART模型;步骤4、将待排序的句子输入到训练完成的模型中进行预测排序。设计词性标注预训练任务、句子掩盖预训练任务、句子删除预训练任务、句子填充预训练任务和句子旋转预训练任务进一步增强BART模型对句子语义和句间关系的特征提取能力。设计的预训练任务是一种多任务学习的训练方法,也是一种位置可控的句子排序方法,将排序控制信息通过句子标签序列的形式加到输入字符串中,模

    一种多粒度中文文本纠错方法和装置

    公开(公告)号:CN116127952A

    公开(公告)日:2023-05-16

    申请号:CN202310088091.8

    申请日:2023-01-16

    Abstract: 一种多粒度中文文本纠错方法,包括:对待纠错的中文文本进行预处理;构建名词知识库和文本纠错训练语料;使用预训练语言模型对输入待纠错的文本进行向量编码,并融合文本的语音信息,得到字符向量序列;基于神经网络检测文本中的字粒度和词粒度错误,得到错误字集合和错误词集合;对检测得到的字粒度和词粒度的错误分别进行纠正,得到字、词粒度错误的候选替换字、词;使用多任务学习的方式联合训练整个模型;将字、词粒度纠正结果进行融合,得到纠错后的文本。本发明还包括一种多粒度中文文本纠错装置。本发明可以有效地对文本中的多粒度(字粒度和词粒度)错误进行纠错,并采用多任务学习的方式训练整个模型,具有很好的纠错准确性和实用性。

    一种增强BART预训练任务的句子排序方法及装置

    公开(公告)号:CN115879421A

    公开(公告)日:2023-03-31

    申请号:CN202310120728.7

    申请日:2023-02-16

    Abstract: 本发明公开了一种增强BART预训练任务的句子排序方法及装置,包括如下步骤:步骤1、从文本资源中提取有序的句子作为原始训练数据;步骤2、对原始训练数据进行预处理;步骤3、用预处理后的训练数据训练BART模型;步骤4、将待排序的句子输入到训练完成的模型中进行预测排序。设计词性标注预训练任务、句子掩盖预训练任务、句子删除预训练任务、句子填充预训练任务和句子旋转预训练任务进一步增强BART模型对句子语义和句间关系的特征提取能力。设计的预训练任务是一种多任务学习的训练方法,也是一种位置可控的句子排序方法,将排序控制信息通过句子标签序列的形式加到输入字符串中,模型会根据输入的排序控制信息进行句子排序。

    一种模型训练方法、一种任务执行时间预测方法及装置

    公开(公告)号:CN119623548A

    公开(公告)日:2025-03-14

    申请号:CN202411553118.7

    申请日:2024-11-01

    Abstract: 本说明书公开了一种模型训练方法、一种任务执行时间预测方法及装置,具体包括:根据历史模型训练任务的历史资源占用数据,筛选出相似历史模型训练任务。将历史模型训练任务和相似历史模型训练任务的历史资源占用数据输入预测模型,使得其确定出历史模型训练任务对应的资源占用特征数据,从而确定历史模型训练任务对应的预测执行时长。根据预测执行时长和历史任务执行时长进行训练。训练后的预测模型根据目标模型训练任务的资源占用数据,确定目标模型训练任务的预测执行时长。本说明书中的方法预测效率更高且更加精准。进而使得后续资源分配时有效提升训练资源的利用率,避免资源浪费和搁置的同时,也极大程度上提高了整体训练过程的训练效率。

    一种基于运行时长预测的深度学习任务执行方法及装置

    公开(公告)号:CN119597601A

    公开(公告)日:2025-03-11

    申请号:CN202411503872.X

    申请日:2024-10-25

    Abstract: 本说明书公开了一种基于运行时长预测的深度学习任务执行方法及装置。所方法包括:通过智算集群中的各计算节点按照当前任务分配策略执行目标深度学习任务,并在目标深度学习任务执行指定时长后,获取各计算节点上的计算资源在指定时长内的性能监控数据序列,对各计算节点对应的性能监控数据进行处理,针对每个计算节点对应的目标监控数据,提取该目标监控数据在时域上的时域特征和该目标监控数据在频域上的频域特征;将时域特征和频域特征输入预先训练的时长预测模型,确定完成目标深度学习任务所需的运行时长,根据运行时长,对当前任务分配策略进行调整,以根据调整后的任务分配策略执行目标深度学习任务。

    一种语义不同措辞相似的句子生成方法、装置及设备

    公开(公告)号:CN116227466B

    公开(公告)日:2023-08-18

    申请号:CN202310501928.7

    申请日:2023-05-06

    Abstract: 本发明公开了一种语义不同措辞相似的句子生成方法、装置及设备,包括生成、筛选与输入句子语义不同措辞相似的句子;生成句子包括关键词替换和模型生成,关键词替换是选择原句中的关键词进行替换生成结果,模型生成是利用生成模型生成结果;再通过通顺判断、语义不同判断、措辞相似判断和质量评分对过滤得到的句子进行筛选。本发明提出了一种新的自然语言处理任务,可以计算句子间措辞相似度、计算句子间结构差异和筛选优质的生成结果;丰富了自然语言处理研究的任务,有利于问答系统的测试、高质量负例数据的生成和增强模型对语言的理解。

    一种语义不同措辞相似的句子生成方法、装置及设备

    公开(公告)号:CN116227466A

    公开(公告)日:2023-06-06

    申请号:CN202310501928.7

    申请日:2023-05-06

    Abstract: 本发明公开了一种语义不同措辞相似的句子生成方法、装置及设备,包括生成、筛选与输入句子语义不同措辞相似的句子;生成句子包括关键词替换和模型生成,关键词替换是选择原句中的关键词进行替换生成结果,模型生成是利用生成模型生成结果;再通过通顺判断、语义不同判断、措辞相似判断和质量评分对过滤得到的句子进行筛选。本发明提出了一种新的自然语言处理任务,可以计算句子间措辞相似度、计算句子间结构差异和筛选优质的生成结果;丰富了自然语言处理研究的任务,有利于问答系统的测试、高质量负例数据的生成和增强模型对语言的理解。

Patent Agency Ranking