-
公开(公告)号:CN118690829A
公开(公告)日:2024-09-24
申请号:CN202410844190.9
申请日:2024-06-27
Applicant: 中国科学院计算技术研究所 , 无锡芯光互连技术研究院有限公司
IPC: G06N3/096 , G06N3/045 , G06N3/0495 , G06N3/042 , G06F18/241 , G06N3/092
Abstract: 本发明提供了一种基于图神经网络架构挑选的知识蒸馏方法,包括:获取预先定义的图神经网络架构的搜索空间,其定义架构搜索的范围;利用神经架构搜索技术和预设分类任务对应的验证集,采用强化学习机制从所述搜索空间中搜索执行该分类任务的最优图神经网络结构,所述预设分类任务与训练教师图模型时所对应的分类任务相同;基于预设的知识蒸馏方式,利用所述教师图模型指导采用所述最优图神经网络结构的学生图模型进行节点分类,得到经训练的学生图模型。
-
公开(公告)号:CN118673329A
公开(公告)日:2024-09-20
申请号:CN202410815941.4
申请日:2024-06-24
Applicant: 中国科学院计算技术研究所 , 无锡芯光互连技术研究院有限公司
IPC: G06F18/214 , G06F18/2431 , G06N3/042 , G06N3/0464 , G06N5/022
Abstract: 本发明提供了一种基于图神经网络的异构蒸馏方法,包括获取异构的至少两个教师模型以及学生模型,所有教师模型和学生模型均为设置有中间层以及输出层的图数据网络,教师模型是经训练的模型;获取训练集,其包括一个或者多个样本以及指示样本相关对象所属类别的标签,所述样本为包括节点和边的图数据;利用训练集和至少两个教师模型指导学生模型进行训练,训练包括:将样本输入每个教师模型和学生模型,得到各中间层生成的中间节点表示和各输出层生成的预测值;基于预设的总损失函数指导学生模型的参数更新,所述总损失函数被配置为分类交叉熵损失函数、中间级蒸馏损失函数和输出级蒸馏损失函数的加权和。
-
公开(公告)号:CN119356951A
公开(公告)日:2025-01-24
申请号:CN202410884087.7
申请日:2024-07-03
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种多芯粒计算系统的运行管理方法,包括:多芯粒计算系统的芯片包括通用处理器和多个功能芯粒;通用处理器分配任务至每个功能芯粒,功能芯粒向通用处理器报告工作状态和当前工作现场;通用处理器根据工作状态判断功能芯粒是否正常,若正常,则将其对应的当前工作现场保存;否则判定功能芯粒发生故障,将发生故障的功能芯粒当前执行的任务分配到与其功能相同且工作状态正常的功能芯粒上,工作状态正常的功能芯粒从恢复保存的工作现场,重启分配给发生故障的功能芯粒的任务,得到任务执行结果。
-
公开(公告)号:CN115422738A
公开(公告)日:2022-12-02
申请号:CN202211051624.7
申请日:2022-08-31
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种自媒体消息传播仿真模型的建模方法,所述方法包括:S1、基于元胞自动机模型构建用于模拟消息自媒体传播平台的无标度网络初始模型,其中,所述无标度网络初始模型包括多个节点,并在每经过一个单位时间后新增一个节点;S2、以无标度网络初始模型中的节点为人群,基于传染病模型配置无标度网络初始模型在消息传递过程中节点的状态转换规则以获得自媒体消息传播仿真模型。基于本发明提供的基于无标度网络自媒体消息传播模型的建模方法及仿真方法,通过调整网络拓扑结构特性指标对无标度网络模型下的消息传播过程进行仿真模拟描述,实现了对同一消息在不同自媒体平台上传播的差异分析,提高了消息传播分析的效率。
-
公开(公告)号:CN115115862A
公开(公告)日:2022-09-27
申请号:CN202210553500.2
申请日:2022-05-20
Applicant: 中国科学院计算技术研究所
IPC: G06V10/762 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明提出一种基于异构图神经网络的高阶关系知识蒸馏方法和系统,所述方法主要包括一阶节点级知识蒸馏和二阶关系级知识蒸馏两部分,有效解决了数据标签不精确和异构高阶关系语义建模困难这两个问题。具体来说,该方法通过进行节点级知识蒸馏,对预训练异构教师模型的单个节点语义进行编码;通过进行关系级知识蒸馏,对预训练异构教师模型的不同类型节点之间的语义关系进行建模。通过整合节点级知识蒸馏和系级知识蒸馏,这种高阶关系知识蒸馏方法成为一种实用且通用的训练方法,适用于任意的异构图神经网络,不仅提升了异构学生模型的性能和泛化能力,而且保证了对异构图神经网络的节点级和关系级知识提取。
-
-
-
-