语言模型的训练方法和文本生成方法

    公开(公告)号:CN117910478A

    公开(公告)日:2024-04-19

    申请号:CN202410014277.3

    申请日:2024-01-04

    Abstract: 本申请公开了一种语言模型的训练方法和文本生成方法,属于人工智能技术领域。方法包括:获取样本文本数据和第一语言模型,第一语言模型包括多个第一解码网络,第一解码网络包括第一线性层和第一标准化层;对任一个第一解码网络中的第一线性层进行压缩,得到第二线性层;基于任一个第一解码网络对应的第二解码网络,对第一输入特征进行解码处理得到第一输出特征,第二解码网络包括第二线性层和第一标准化层;基于第一输出特征对第一标准化层进行训练得到第二标准化层;基于各个第一解码网络对应的第三解码网络,确定第二语言模型,第三解码网络包括第二线性层和第二标准化层。本申请降低了模型的参数量,且提高了训练后的语言模型的精度。

    模型部署方法、模型运行方法、装置、介质、及电子设备

    公开(公告)号:CN115658083A

    公开(公告)日:2023-01-31

    申请号:CN202211371207.0

    申请日:2022-11-03

    Abstract: 本公开涉及一种模型部署方法、模型运行方法、装置、介质、及电子设备。模型部署方法包括:响应于接收到待部署终端的各异构硬件的相关信息,根据原始模型对应的映射关系和各异构硬件的相关信息,确定各异构硬件对应的原始模型的目标版本模型,其中,原始模型对应的映射关系用于表征原始模型中每一算子在不同异构硬件上运行时的耗时信息;将各异构硬件对应的原始模型的目标版本模型下发至待部署终端,以在待部署终端中部署各异构硬件对应的原始模型的目标版本模型。如此,针对待部署终端的每一异构硬件,可以确定出与该异构硬件相适配的目标版本模型,能够充分发挥终端的硬件能效,提升模型的精度和运行效率,进而提升用户使用体验。

    一种模型部署的方法及装置
    4.
    发明公开

    公开(公告)号:CN115034367A

    公开(公告)日:2022-09-09

    申请号:CN202210651363.6

    申请日:2022-06-09

    Abstract: 本说明书公开了一种模型部署的方法及装置,该模型部署的方法包括:确定预设模型中包含的需要替换的各网络分支,作为各目标网络分支;根据所述各目标网络分支对应的初始网络参数,确定假设将所述各目标网络分支等效替换为指定网络分支后,所述指定网络分支对应的网络参数;根据所述指定网络分支对应的网络参数更新所述初始网络参数,并对更新后的初始网络参数进行伪量化处理;将经过伪量化处理后的模型中包含的所述各目标网络分支等效替换为指定网络分支,并根据替换后的模型进行模型部署。

    多媒体分类模型的剪枝方法、装置、服务器及存储介质

    公开(公告)号:CN114610912A

    公开(公告)日:2022-06-10

    申请号:CN202210244604.5

    申请日:2022-03-14

    Abstract: 本公开提供了一种多媒体分类模型的剪枝方法、装置、服务器及存储介质,属于计算机技术领域。所述方法包括:基于第I次剪枝得到的多媒体分类子模型每层的特征矩阵确定每层的权重矩阵;基于第I次剪枝及第I‑1次剪枝得到的多媒体分类子模型每层的权重矩阵,对第I次及第I‑1次剪枝得到的多媒体分类子模型进行筛选;对筛选后的多媒体分类子模型每层的通道数量进行交叉变异及剪枝得到的多媒体分类子模型进行第I+2次剪枝操作;从剪枝次数达到T次时得到的多媒体分类子模型中,获取不同剪枝率下的最优多媒体分类子模型。本公开无需搜索基于多媒体分类子模型每层的特征矩阵即可确定每层的权重矩阵,提高了最终得到的多媒体分类子模型的精度。

    语言模型的压缩方法和文本生成方法

    公开(公告)号:CN117852583A

    公开(公告)日:2024-04-09

    申请号:CN202410016988.4

    申请日:2024-01-04

    Abstract: 本申请公开了一种语言模型的压缩方法和文本生成方法,属于人工智能技术领域。方法包括:对于原始语言模型中的任一个原始解码网络,基于任一个原始解码网络对第一输入特征进行解码,得到第一输出特征,任一个原始解码网络包括原始线性层;基于第一输出特征,对原始线性层的原始权重参数进行剪切和量化,得到第一权重参数;对第一权重参数进行补偿,得到第二权重参数;基于第二权重参数和任一个原始解码网络,确定任一个原始解码网络的压缩解码网络;基于各个原始解码网络的压缩解码网络,确定原始语言模型的压缩语言模型。本申请不仅降低了模型的参数量,还能保证压缩语言模型的精度。

    用于终端部署的图像处理模型压缩方法、装置以及设备

    公开(公告)号:CN116108910A

    公开(公告)日:2023-05-12

    申请号:CN202310115362.4

    申请日:2023-02-07

    Abstract: 本申请公开了一种用于终端部署的图像处理模型压缩方法、装置以及设备,属于计算机技术领域。基于第一量化步长,对待压缩的图像处理模型的浮点型模型参数进行量化和反量化,得到反量化后的浮点型模型参数;根据目标映射关系对第一量化步长进行映射,得到第一可训练参数;对配置有反量化后的浮点型模型参数的图像处理模型进行训练,在训练过程中,调整浮点型模型参数和第一可训练参数;根据目标映射关系对调整后的第一可训练参数进行反映射,得到第二量化步长;基于第二量化步长对调整后的浮点型模型参数进行量化,得到第二整型模型参数;为图像处理模型配置第二整型模型参数,并将第二量化步长配置到图像处理模型中,提高了模型压缩效果。

    基于注意力模型的图像分割方法及装置

    公开(公告)号:CN114494291A

    公开(公告)日:2022-05-13

    申请号:CN202210049286.7

    申请日:2022-01-17

    Abstract: 本发明公开了一种基于注意力模型的图像分割方法及装置。其中,该方法包括:将目标图像的图像块输入至预先训练完成的图像分割模型中,其中,图像块是按照预设规则对目标图像分割得到的,图像分割模型包括编码器以及解码器;通过编码器中的多层子编码器,根据图像块的图像特征确定多层子编码器对应的多个图像向量表示,子编码器包括注意力编码器;通过图像分割模型中的解码器,根据多个图像向量表示确定图像块对应的图像预测结果。本发明解决了由于相关技术中编码器在全局特征提取方面存在不足,而导致解码器构造复杂,训练以及预测过程中计算量大的技术问题。

    用于终端部署的图像检测模型的训练方法、装置及服务器

    公开(公告)号:CN116129225A

    公开(公告)日:2023-05-16

    申请号:CN202310165730.6

    申请日:2023-02-15

    Abstract: 本申请公开了一种用于终端部署的图像检测模型的训练方法、装置及服务器,属于计算机技术领域。方法包括:获取待部署到终端上的图像检测模型,对图像检测模型处理得到包括单分支结构的改造图像检测模型;采用梯度掩码的方式对改造图像检测模型进行训练,对训练后的改造图像检测模型进行量化,在得到的量化后的改造图像检测模型的精度小于预设精度的情况下,采用步长可学习方式和特征蒸馏方式对训练后的改造图像检测模型进行量化感知训练,得到训练后的改造图像检测模型,将训练后的改造图像检测模型部署到所述终端上,保证量化感知训练后的改造图像检测模型的准确性,并且单分支结构的图像检测模型的训练过程速度快,提高了训练效率。

    一种图像处理方法及装置
    10.
    发明授权

    公开(公告)号:CN113706642B

    公开(公告)日:2023-04-07

    申请号:CN202111012833.6

    申请日:2021-08-31

    Abstract: 本说明书公开了一种图像处理方法及装置。通过编码器将目标图像划分为各图像块并进行分组,在每组图像块内计算各图像块的组内权重,以确定各组图像块对应的加权特征矩阵以及该目标图像对应的组合加权特征矩阵。基于得到的组合加权特征矩阵,进一步计算各组图像块的全局权重,以确定各组图像块的全局加权特征矩阵,并确定由各全局加权特征矩阵构成的全局特征,作为编码器的编码结果,将该编码结果输入到解码器后,确定该目标图像的图像处理结果。能够在减少计算量的同时,进行分组以及全局的自注意力权重计算,能够充分确定各图像块间以及各组图像块间的相关度,以得到准确的注意力权重,使得解码器能够输出更准确的图像处理结果。

Patent Agency Ranking