-
公开(公告)号:CN117688168A
公开(公告)日:2024-03-12
申请号:CN202211043064.0
申请日:2022-08-29
Applicant: 腾讯科技(深圳)有限公司 , 北京交通大学
Abstract: 本申请实施例公开了一种摘要生成的方法以及相关装置,至少涉及人工智能中的自然语言处理、机器学习、计算机视觉等技术。该方法包括对待处理文档中的文本信息进行特征提取处理,得到文本信息对应的文本特征向量,以及对待处理文档中的图片进行特征提取处理,得到图片对应的图片特征向量;对文本特征向量进行自注意力处理,得到第一文本特征向量;对第一文本特征向量与图片特征向量进行自注意力处理,得到目标特征向量;基于摘要生成模型对目标特征向量和第一摘要词进行预测处理,生成待处理文档的目标摘要信息。通过上述方式,能够准确地生成待处理文档的目标摘要信息,使得目标摘要信息精准地表达文档所需表达的主要内容,提高摘要的准确性。
-
公开(公告)号:CN104699263B
公开(公告)日:2018-04-03
申请号:CN201510120023.0
申请日:2015-03-18
Applicant: 北京交通大学
IPC: G06F3/023
Abstract: 本发明公开了一种获取符号串的方法和装置,属于自然语言处理研究领域。所述方法包括:获取输入的信息中包含的第一符号串;根据第二符号串生成与所述第二符号串具有对称性结构的第三符号串,所述第二符号串为所述第一符号串或为所述第一符号串的子符号串;将所述第二符号串和所述第三符号串组成第四符号串。所述装置包括:第一获取模块,生成模块,和组成模块。本发明中能够根据用户当前输入的第一符号串第三符号串,将第二符号串和第三符号串组成第四符号串,从而自动生成和实现符号库中所没有的表情符号,满足用户的个性化需求。
-
公开(公告)号:CN104699263A
公开(公告)日:2015-06-10
申请号:CN201510120023.0
申请日:2015-03-18
Applicant: 北京交通大学
IPC: G06F3/023
CPC classification number: G06F3/0233 , G06F3/0237
Abstract: 本发明公开了一种获取符号串的方法和装置,属于自然语言处理研究领域。所述方法包括:获取输入的信息中包含的第一符号串;根据第二符号串生成与所述第二符号串具有对称性结构的第三符号串,所述第二符号串为所述第一符号串或为所述第一符号串的子符号串;将所述第二符号串和所述第三符号串组成第四符号串。所述装置包括:第一获取模块,生成模块,和组成模块。本发明中能够根据用户当前输入的第一符号串第三符号串,将第二符号串和第三符号串组成第四符号串,从而自动生成和实现符号库中所没有的表情符号,满足用户的个性化需求。
-
公开(公告)号:CN117763135A
公开(公告)日:2024-03-26
申请号:CN202211122113.X
申请日:2022-09-15
Applicant: 腾讯科技(深圳)有限公司 , 北京交通大学
IPC: G06F16/34 , G06F16/54 , G06F16/957 , G06N3/0464 , G06N3/047 , G06N3/08 , G06V10/40 , G06V10/82
Abstract: 提供了摘要模型训练方法、摘要生成方法、计算设备和介质。摘要模型用于生成文本摘要,所述训练方法包括:获取训练数据集,所述训练数据集包括的每个训练数据包括文本样本、图片样本以及对应的摘要样本,对于每个训练数据,基于所述训练数据包括的文本样本和图片样本得到第一预测输出,并且基于所述训练数据包括的图片样本得到第二预测输出;以及基于每个训练数据对应的第一预测输出和第二预测输出,对所述摘要模型进行训练。经该训练方法训练后的摘要模型可以结合文本和图片比较精准地生成摘要。
-
公开(公告)号:CN117271759A
公开(公告)日:2023-12-22
申请号:CN202211024211.X
申请日:2022-08-24
Applicant: 腾讯科技(深圳)有限公司 , 北京交通大学
IPC: G06F16/34 , G06F40/126 , G06F40/194 , G06F18/25 , G06N3/0499 , G06N3/0455 , G06N3/084
Abstract: 本申请涉及一种文本摘要生成模型训练方法、文本摘要生成方法、装置、计算机设备、存储介质和计算机程序产品。所述方法包括:将训练文本和对应的训练图像集合输入初始文本摘要生成模型,得到预测文本摘要,基于预测文本摘要和标签文本摘要之间的差异生成目标损失;将训练文本对应的掩码训练数据和第一训练数据输入初始文本摘要生成模型,得到掩码预测数据,基于掩码标签数据和掩码预测数据之间的差异生成重构损失;基于目标损失和重构损失调整初始文本摘要生成模型的模型参数,直至满足收敛条件,得到目标文本摘要生成模型;目标文本摘要生成模型用于生成文本的文本摘要。采用本方法能够提高模型的预测准确性,提高生成的文本摘要的质量。
-
公开(公告)号:CN116681091A
公开(公告)日:2023-09-01
申请号:CN202210161770.9
申请日:2022-02-22
Applicant: 腾讯科技(深圳)有限公司 , 北京交通大学
Abstract: 本申请实施例提供了一种生成对抗样本的方法、装置、设备、存储介质及程序产品,涉及人工智能领域,应用场景包括但不限于机器翻译等场景。该方法包括:获取待翻译的源文本和源文本对应的目标文本;确定源文本对应的待识别对抗样本,以及目标文本对应的待识别对抗样本;基于源文本和源文本对应的待识别对抗样本,确定第一相似度下降率;并基于源文本、目标文本和目标文本对应的待识别对抗样本,确定第二相似度下降率;若第一相似度下降率大于预设第一相似度下降率阈值,且第二相似度下降率小于预设第二相似度下降率阈值,则确定源文本对应的待识别对抗样本为源文本的对抗样本,以及目标文本对应的待识别对抗样本为目标文本的对抗样本。
-
公开(公告)号:CN116663572A
公开(公告)日:2023-08-29
申请号:CN202210143195.X
申请日:2022-02-16
Applicant: 腾讯科技(深圳)有限公司 , 北京交通大学
IPC: G06F40/49 , G06F40/45 , G06F40/58 , G06N3/0499 , G06N3/08
Abstract: 本申请公开了数据处理方法、装置、计算机设备及计算机可读存储介质,应用于计算机技术领域。该方法包括:获取待处理数据序列;调用数据转换模型对待处理数据序列进行处理,得到待处理数据序列中各个待处理数据对应的目标数据,该数据转换模型对应的训练样本包括源词序列以及对应的目标词序列,该数据转换模型是基于训练样本以及目标词序列中的每个目标词的对齐偏置进行训练得到的,该对齐偏置为每个目标词相对于源词序列中对应源词的偏移数据;输出各个待处理数据对应的目标数据。本申请可以应用于同步机器翻译等各种数据转换场景,能够提高数据转换的准确性。
-
公开(公告)号:CN116644762A
公开(公告)日:2023-08-25
申请号:CN202210138704.X
申请日:2022-02-15
Applicant: 腾讯科技(深圳)有限公司 , 北京交通大学
IPC: G06F40/42 , G06F18/25 , G06F18/2413 , G06F18/2415 , G06N3/047 , G06N3/08
Abstract: 本申请实施例公开了一种翻译模型训练方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:获取样本数据集合;调用待训练的翻译模型,基于第一历史语句,对第一样本语句进行翻译,得到第一样本语句对应的第一翻译语句,基于翻译模型的第一损失函数和第一翻译语句,确定第一梯度参数;调用辅助模型,基于样本数据集合中的辅助历史语句进行处理,得到辅助模型的输出结果,基于辅助模型的第二损失函数和辅助模型的输出结果,确定第二梯度参数;基于第一梯度参数和第二梯度参数,更新翻译模型对应的模型参数。该方法能够增强翻译模型所翻译出的翻译语句与位于该翻译语句之前的语句之间的连贯性,从而提高了翻译模型的准确性。
-
公开(公告)号:CN114154520A
公开(公告)日:2022-03-08
申请号:CN202111389048.2
申请日:2021-11-22
Applicant: 北京交通大学
Abstract: 本申请公开了一种机器翻译模型的训练方法、机器翻译方法、装置及设备,属于计算机技术领域,该方法包括:获取训练样本集,训练样本集包括训练样本及该训练样本对应的标准翻译文本;将训练样本及训练样本对应的标准翻译文本输入机器翻译模型中,获取机器翻译模型在反向传播过程中产生的梯度向量;基于梯度向量和多个噪音词为训练样本生成对抗样本;基于训练样本和对抗样本对机器翻译模型进行对抗训练,得到目标机器翻译模型。该训练方法生成的对抗样本对机器翻译模型攻击性较大,并且增加了训练数据的多样性,由此提高了机器翻译模型的鲁棒性,进而提高了机器翻译模型的翻译性能,使得通过机器翻译模型得到的翻译结果更加准确。
-
公开(公告)号:CN104699675A
公开(公告)日:2015-06-10
申请号:CN201510119654.0
申请日:2015-03-18
Applicant: 北京交通大学
IPC: G06F17/28
Abstract: 本发明公开了一种翻译信息的方法和装置,属于自然语言处理研究领域。方法包括:获取源语言格式的第一信息中包含的表情符号;在第一信息中将该表情符号置换为用于标识该表情符号的第一标识得到第二信息;将第二信息翻译为目标语言格式的第三信息;从第三信息中提取与第一标识相对应的第二标识;在第三信息中将第二标识置换为第二标识对应的表情符号得到第四信息。装置包括:第一获取模块,第一置换模块,翻译模块,第一提取模块和第二置换模块。实现了不受表情符号库及翻译词典的限制,对表情符号的高精度翻译,降低构筑包含表情符号的翻译词典、翻译规则、翻译模型和语言模型等成本,解决表情符号词典内未登录的表情符号的识别、翻译和生成问题。
-
-
-
-
-
-
-
-
-