一种对象分类方法、装置、介质及设备

    公开(公告)号:CN120030381A

    公开(公告)日:2025-05-23

    申请号:CN202411988897.3

    申请日:2024-12-31

    Inventor: 张长浩 傅欣艺

    Abstract: 本说明书实施例公开了一种对象分类方法、装置、介质及设备。构建多层次的类目体系,此类目体系可以通过树形结构来表示,树形结构的每个节点表示一个类目词;子节点表示的类目词,从属于父节点表示的类目词;所述树形结构的每个节点路径表示一个对象分类。可以基于树形结构表示的类目体系,借助语言模型的语义分析能力,将待分类对象的描述信息与树形结构中的节点路径进行语义匹配,确定与描述信息具有语义匹配关系的至少一个目标节点路径,进而可以得到待分类对象对应的对象分类。此外,上述技术方案可以应用在可信执行环境中,从而避免待分类对象的描述信息泄露。

    一种模型的知识蒸馏方法、装置及设备

    公开(公告)号:CN118428404A

    公开(公告)日:2024-08-02

    申请号:CN202410472853.9

    申请日:2024-04-18

    Abstract: 本说明书实施例公开了一种模型的知识蒸馏方法、装置及设备,该方法包括:获取预设的噪声数据,将噪声数据输入到预先训练的生成器中,得到训练样本数据,并获取用于描述训练样本数据的标签信息的文本数据,基于文本数据,通过预训练的文本编码器,确定文本数据对应的文本编码数据,训练样本数据包括金融交易中扫描的图像数据,将训练样本数据输入到预先训练的教师模型中,得到第一输出结果,将训练样本数据和文本编码数据输入到学生模型中,得到第二输出结果,教师模型是用于在金融交易中对扫描的图像进行风险防控的模型,基于第一输出结果和第二输出结果,通过预设的损失函数,使用教师模型对学生模型进行知识蒸馏训练。

    一种小程序的处理方法、装置及设备

    公开(公告)号:CN118170564A

    公开(公告)日:2024-06-11

    申请号:CN202410471638.7

    申请日:2024-04-18

    Abstract: 本说明书实施例公开了一种小程序的处理方法、装置及设备,该方法应用于终端设备,包括:获取用户通过第一应用触发的目标小程序的数据处理请求,所述目标小程序是搭载于第二应用对应的主程序平台的小程序,所述第一应用对应的主程序平台与所述第二应用对应的主程序平台不同;向安装有所述目标小程序的云端服务器发送所述数据处理请求,所述数据处理请求用于触发所述云端服务器中安装的所述目标小程序响应所述数据处理请求获取相应的小程序数据;通过所述第一应用接收所述云端服务器中安装的所述目标小程序返回的所述小程序数据,并基于所述小程序数据进行页面渲染,在所述第一应用中展示页面渲染得到的所述小程序数据对应的页面。

    一种资源分配方法、装置及设备
    75.
    发明公开

    公开(公告)号:CN117201499A

    公开(公告)日:2023-12-08

    申请号:CN202311188625.0

    申请日:2023-09-13

    Abstract: 本说明书一个或多个实施例公开了一种资源分配方法、装置及设备,该方法应用于终端设备,包括:获取针对目标业务的计算请求;基于计算请求和预设的端边资源分配算法,确定与终端设备对应的边缘服务器的算力开销、执行目标业务的业务耗时以及目标业务的业务价值,业务耗时是从终端设备获取计算请求到云端接收目标业务执行结果的时间段,业务价值与目标业务在终端设备或边缘服务器上的可信放行率正相关;根据所确定的边缘服务器的算力开销、执行目标业务的业务耗时以及目标业务的业务价值,以业务价值最大化为目标对端边资源分配算法进行求解,确定计算请求对应的算力卸载对象;将计算请求提供至所确定的算力卸载对象上。

    针对部署在终端的模型进行算力分配的方法、装置和设备

    公开(公告)号:CN116737369A

    公开(公告)日:2023-09-12

    申请号:CN202310617475.4

    申请日:2023-05-26

    Abstract: 本说明书实施例公开了一种针对部署在终端的模型进行算力分配的方法、装置和设备,所述方法可在确定终端上安装的目标应用中待分配算力的多个模型后,将所述多个模型的算力档位和执行顺序作为参数,建立以所述多个模型对应的全局业务价值为优化目标,以所述多个模型的算力消耗为约束条件的最优化问题;对所述最优化问题进行求解得到针对所述多个模型的最优算力分配方案;基于所述最优算力分配方案在所述终端上为所述多个模型分配算力。

    一种云服务的模型部署方法、装置、电子设备及存储介质

    公开(公告)号:CN116382711A

    公开(公告)日:2023-07-04

    申请号:CN202310350158.0

    申请日:2023-03-29

    Abstract: 本说明书公开了一种云服务的模型部署方法、装置、电子设备及存储介质。方法包括:基于神经网络搜索架构确定目标模型的多种神经网络结构,目标模型的神经层的结构参数作为搜索空间的超参数。根据结构参数,确定每种神经网络结构的神经层的硬件耗时和传输耗时,传输耗时是指终端将神经层的输出结果传输至云端的耗时。按照神经网络结构的总耗时最小化原则,将每种神经网络结构拆分成终端部分和云端部分,总耗时包括终端部分和云端部分中神经层的硬件耗时以及终端部分中输出结果需要传输至云端的神经层的传输耗时。基于预设策略选取出目标神经网络结构,并按照其划分的终端部分和云端部分完成对应部署,预设策略包含基于总耗时的选取维度。

    训练文本分类模型的方法、文本分类方法及对应装置

    公开(公告)号:CN116306869A

    公开(公告)日:2023-06-23

    申请号:CN202310240367.X

    申请日:2023-03-07

    Abstract: 本说明书实施例提供了一种训练文本分类模型的方法、文本分类方法及对应装置。主要技术方案包括:将已经训练得到的第一文本分类模型作为教师模型;利用第一分类模型中的嵌入模块、解码模块以及减少层数后的编码模块得到学生模型,且在学生模型的编码模块和解码模块之间增加了映射模块;将训练样本中的文本样本作为教师模型和学生模型的输入用以训练学生模型,利用训练得到的学生模型得到第二文本分类模型;训练的目标为:最小化教师模型的编码模块输出的第一特征表示分布与学生模型的映射模块输出的第三特征表示分布之间的差异。本说明书实施例能够在保证模型鲁棒性的基础上降低超参数的数量,从而降低因确定最优超参所带来的整体耗时和对资源的消耗。

    一种模型压缩的方法、装置、存储介质及电子设备

    公开(公告)号:CN115543945B

    公开(公告)日:2023-06-20

    申请号:CN202211509870.2

    申请日:2022-11-29

    Abstract: 本说明书公开了一种模型压缩的方法、装置、存储介质及电子设备,可以获取待压缩模型,并确定该待压缩模型的模型结构参数,以及根据模型结构参数,确定针对待压缩模型的若干种压缩方案,而后,根据各种压缩方案,确定每种压缩方案对应的待评估模型,再针对每种压缩方案,根据预设的样本数据,确定该压缩方案对应的待评估模型处理该样本数据得到输出结果所消耗的数据处理时长,作为该压缩方案对应的数据处理时长,从而根据每种压缩方案对应的数据处理时长,确定目标压缩方案,并根据目标压缩方案,对待压缩模型进行压缩,从而提高通过神经网络模型执行业务的效率,保护用户的隐私数据。

    一种模型训练方法、装置、存储介质及电子设备

    公开(公告)号:CN116150622A

    公开(公告)日:2023-05-23

    申请号:CN202310183952.0

    申请日:2023-02-17

    Abstract: 本说明书公开了一种模型训练方法、装置、存储介质及电子设备。确定当前迭代过程对应的噪声值,以及基于每个训练样本分别确定出的调整模型参数的梯度,根据各梯度以及预设的第一超参数,分别确定各梯度权重,根据各梯度以及各梯度权重,确定各自适应梯度,基于训练样本确定出的梯度越大则自适应梯度与预设的梯度期望值的差越小,根据噪声值对各各自适应梯度之和加噪,以得到当前迭代过程的批次平均梯度,最后根据批次平均梯度,调整所述待训练模型的参数。可以减少小梯度样本对模型参数影响程度,使得模型训练效果更好,基于训练得到的模型执行业务的结果更准确。

Patent Agency Ranking