基于大型多模态模型的视觉表征压缩方法及装置

    公开(公告)号:CN119887954A

    公开(公告)日:2025-04-25

    申请号:CN202411980108.1

    申请日:2024-12-31

    Inventor: 冯洋 张绍磊

    Abstract: 本发明提供了一种基于大型多模态模型的视觉表征压缩方法,包括:将输入的多个第一视觉令牌压缩为至少一个第二视觉令牌;在输入大型多模态模型之前,将所述对第二视觉令牌与文本令牌进行融合,生成对应的融合信息;将所述融合信息输入所述大型多模态模型进行处理。本发明还提供一种基于大型多模态模型的视觉表征压缩装置、存储介质及电子设备。借此,本发明能够显著提高计算效率、降低内存占用和增强模型灵活性。

    基于大语言模型的自主检索增强生成方法及装置

    公开(公告)号:CN119831041A

    公开(公告)日:2025-04-15

    申请号:CN202411890644.2

    申请日:2024-12-20

    Inventor: 冯洋 雨田

    Abstract: 本发明提供了一种基于大语言模型的自主检索增强生成方法,包括:数据构建步骤,通过少样本样例引导大语言模型在迭代检索中基于推理生成检索策略,根据所述检索策略生成训练数据;模型训练步骤,使用训练数据对大语言模型进行训练;推理应用步骤,在大语言模型在接收到用户提问后基于推理生成对应的检索策略,并根据检索策略自主对用户提问进行迭代检索。本发明还提供一种基于大语言模型的自主检索增强生成装置、存储介质及电子设备。借此,本发明能够充分利用大语言模型自身所具有的推理决策能力,在迭代检索中实现自主决策,不仅具有更好的检索效果,而且效率更高。

    利用条件变分自动编码器进行标签平滑的翻译方法及系统

    公开(公告)号:CN115455993A

    公开(公告)日:2022-12-09

    申请号:CN202210950390.3

    申请日:2022-08-09

    Abstract: 本发明提出一种利用条件变分自动编码器进行标签平滑的翻译方法和系统,包括:将翻译训练文本输入具有条件变分自动编码器的神经网络翻译模型,经过该神经网络翻译模型的编解码器,得到解码器的输出向量,将该输出向量输入该条件变分自动编码器,计算出隐变量,并利用隐变量重构出输出向量,最后用该输出向量替换原有的输出向量,预测标签概率分布。在训练阶段,对比该标签概率分布和原输出向量得出的概率分布构成翻译损失;对比条件变分自动编码器的先验后验输出构成自编码器损失。这两种损失函数加上原有输出向量和后验输出向量分别计算出的标签概率分布损失,一同构成该神经网络翻译模型的训练目标;以神经网络翻译模型执行翻译。

    基于大语言模型的人机对话方法、装置

    公开(公告)号:CN119831039A

    公开(公告)日:2025-04-15

    申请号:CN202411885787.4

    申请日:2024-12-20

    Inventor: 冯洋 郭守涛

    Abstract: 本发明提出一种基于大语言模型的人机对话方法、装置,该方法包括如下步骤:基于预设的基线策略,筛选每一时间步的初始流式输入数据,得到对应的目标流式输入数据;并将每一时间步的初始流式输入数据、目标流式输入数据输入至大语言模型,分别得到第一分布、第二分布,依据第一分布、第二分布计算KL散度与置信度。最终结合KL散度与置信度确定目标生成时刻。该方法通过对比激进策略的方式确定模型的目标生成时刻,指导大语言模型在读入恰当流式输入时生成回复,准确确定了生成时刻,避免冗余延时以及不充分的流式输入情况,满足基于大语言模型人机对话的精确性和实时性的要求。

    利用交互式翻译指令的大规模语言模型指令微调方法及系统

    公开(公告)号:CN117151123A

    公开(公告)日:2023-12-01

    申请号:CN202310729758.8

    申请日:2023-06-19

    Inventor: 冯洋 张绍磊

    Abstract: 本发明提出一种利用交互式翻译指令的大规模语言模型指令微调方法和系统,包括:获取初始语言的预训练模型,构建交互式翻译数据;以该交互式翻译数据为训练数据,训练该预训练模型执行用户指令,以利用该交互式翻译数据对该预训练模型进行指令微调训练;指令微调训练过程采用交叉熵损失衡量该预训练模型在该训练数据上的损失函数,通过优化该预训练模型直到该损失函数收敛,保存当前预训练模型作为指令遵循大规模语言模型;将任意语言的用户指令输入该指令遵循大规模语言模型,得到该指令的对应执行结果。通过少量训练数据的构建,就能实现语言对齐,并提高大规模语言模型在非初始语言的生成能力和指令遵循能力。

    基于大模型的多模态实体链接方法及系统

    公开(公告)号:CN117371527A

    公开(公告)日:2024-01-09

    申请号:CN202311439852.6

    申请日:2023-11-01

    Abstract: 本发明提出一种基于大模型的多模态实体链接方法和系统,将大模型相关的技术应用于知识图谱领域的多模态实体链接问题。相比基于纯文本模态的实体链接,本发明能够考虑到视觉模态的辅助信息,从而能够在纯文本无法消除歧义的场合完成精确的实体链接;而与其他现有的多模态实体链接方法相比,本发明基于参数高效的训练方法,实现了基于大模型的实体链接,能够更好地利用到大模型强大的理解能力和生成能力,在训练代价较小的情况下取得了客观的性能提升。

Patent Agency Ranking