评论生成模型训练方法和装置、信息生成方法和装置

    公开(公告)号:CN117591948B

    公开(公告)日:2024-09-03

    申请号:CN202410082714.5

    申请日:2024-01-19

    Abstract: 本公开提供了一种评论生成模型训练方法和装置,涉及人工智能技术领域,具体涉及自然语言处理、深度学习、大模型等技术领域。具体实现方案为:获取文本样本集,文本样本集包括:第一文本样本,第一文本样本包括:展示文本以及与展示文本相关的情感立场文本;获取预先构建的评论生成网络,评论生成网络包括:编码器和解码器,编码器分别对展示文本和情感立场文本进行建模,得到评论全局特征向量;解码器用于对评论全局特征向量进行解码,得到评论结果信息;将从文本样本集中选取的第一文本样本输入评论生成网络,得到评论生成网络输出的评论结果信息;基于评论结果信息,得到训练完成的评论生成模型。

    面向大语言模型的词向量生成方法、电子设备及存储介质

    公开(公告)号:CN117113990A

    公开(公告)日:2023-11-24

    申请号:CN202311374453.6

    申请日:2023-10-23

    Abstract: 本发明涉及计算机技术应用领域,提供了一种面向大语言模型的词向量生成方法、电子设备及存储介质,包括:获取待分词的文本,作为目标文本;对目标文本进行分词处理,得到对应的分词集S;基于预设词向量基准表T,获取每个词在每个嵌入矩阵的特征向量;基于预设滑动窗口长度d,将S划分为多个语句片段,得到对应的语句片段集SP;对每个语句片段的特征向量进行融合,得到对应的特征向量;得到SP对应的特征向量F作为目标文本的特征向量。本发明在词向量生成过程中,将多个相邻的词组合视为一个词,能够使得分词的长度得到极大的压缩。此外,将不同词的特征向量通过张量积的方式组合成一个词的特征向量,可以极大的降低可训练参数量。

    基于上下文的大语言模型对话处理方法、装置及电子设备

    公开(公告)号:CN119831045A

    公开(公告)日:2025-04-15

    申请号:CN202411915111.5

    申请日:2024-12-24

    Abstract: 本申请实施例公开了一种基于上下文的大语言模型对话处理方法、装置及电子设备,可解决如何提供一种基于上下文相似度分析与智能筛选的动态管理方法来优化大语言模型交互的问题。该方法包括:获取用户输入的当前文本信息;对当前文本信息和预存的多个历史对话信息分别进行编码,得到当前文本向量和多个历史对话向量;根据每个历史对话向量和当前文本向量之间的语义相似度,对多个历史对话向量进行筛选,得到筛选后的目标历史对话信息;将当前文本信息和筛选后的目标历史对话信息进行拼接,得到目标输入文本;将目标输入文本输入到目标语言模型中,得到目标输出响应信息,目标语言模型包括大语言模型。

    大模型的优化训练、数据处理方法、装置、设备和介质

    公开(公告)号:CN119761417A

    公开(公告)日:2025-04-04

    申请号:CN202411808552.5

    申请日:2024-12-10

    Abstract: 本申请涉及数据处理技术领域,尤其提供一种大模型的优化训练、数据处理方法、装置、设备和存储介质,首先,针对每条样本指令,将样本指令输入基础模型,得到样本指令的N条候选答案,利用M个不同的奖励模型分别对候选答案进行评分,得到候选答案的M个评分结果;然后对候选答案的M个评分结果进行加权计算,得到候选答案的偏好值;基于候选答案的偏好值从N条候选答案中选取第一答案和第二答案;最后构建偏好样本数据集,偏好样本数据集包括偏好样本,偏好样本包括样本指令以及样本指令对应的第一答案和第二答案,偏好样本数据集用于采用离线方式对基础模型进行优化训练。以减少了对巨量计算资源的消耗,使大模型偏好对齐训练任务更易实施。

    一种针对大语言模型的推理过程的优化方法及装置

    公开(公告)号:CN119849626A

    公开(公告)日:2025-04-18

    申请号:CN202411916870.3

    申请日:2024-12-24

    Abstract: 本申请实施例提供了一种针对大语言模型的推理过程的优化方法及装置,涉及大语言模型技术领域,该方法具体为:接收用户输入的问题文本;获取所述问题文本对应的目标特征集合,并基于所述目标特征集合对所述问题文本进行复杂度量化评估,以获取所述问题文本对应的目标复杂度;所述目标特征集合中的特征用于表征所述问题文本的复杂性;基于所述目标复杂度确定待激活的解码层的目标数量M,并将所述目标数量的解码层进行激活;其中,M为大于等于1的整数;待M个解码层激活之后,利用所述M个解码层对所述问题文本进行解码分析,获取所述问题文本对应的目标答复文本。本申请能够提高大语言模型的推理效率,同时避免资源浪费。

    基于对偶复数的知识图谱推理方法、装置、设备及介质

    公开(公告)号:CN119849625A

    公开(公告)日:2025-04-18

    申请号:CN202411916264.1

    申请日:2024-12-24

    Abstract: 本公开涉及一种基于对偶复数的知识图谱推理方法、装置、设备及介质,该方法包括:从待推理的知识图谱中提取样本三元组;对样本三元组进行负采样,得到负样本三元组;将样本三元组和负样本三元组确定为训练数据输入至用于将实体和关系嵌入至对偶复数空间的向量转换模型,基于向量转换模型输出的第一头实体向量、第一关系向量、第一尾实体向量、第二头实体向量、第二关系向量和第二尾实体向量构建损失函数,并对向量转换模型进行训练;基于训练后的向量转换模型对知识图谱进行推理补全。本公开通过将对偶复数空间应用于知识图谱的向量表示并训练向量转换模型,能够在不牺牲模型表现力的情况下减少参数量,提高知识图谱推理补全任务的运算效率。

    基于大模型的隐私保护方法、装置、设备及介质

    公开(公告)号:CN119830345A

    公开(公告)日:2025-04-15

    申请号:CN202411915119.1

    申请日:2024-12-24

    Abstract: 本公开实施例涉及一种基于大模型的隐私保护方法、装置、设备及介质,该方法包括:获取用户输入文本中的隐私信息以及隐私信息的实体类型标识;根据用户输入文本和实体类型标识,对隐私信息进行基于上下文的编码处理和基于类型的解码处理,得到隐私信息对应的替代信息;基于隐私信息和替代信息之间的对应关系,对用户输入文本进行基于问答模型的脱敏问答并恢复隐私信息,生成用户输入文本的应答文本。从而,提高了替代信息上下文语义的连贯性和完整性,以及替代信息与隐私信息的实体类型一致性,降低了将隐私信息替换为替代信息对脱敏问答的影响,在脱敏问答过程中保护了用户隐私,又使得最终生成的应答文本具有更好的准确性以及文本连贯性。

Patent Agency Ranking