-
公开(公告)号:CN116663603A
公开(公告)日:2023-08-29
申请号:CN202310558961.3
申请日:2023-05-17
Applicant: 北京大学
IPC: G06N3/042 , G06N3/045 , G06N3/0442 , G06N3/096
Abstract: 本发明属于深度学习技术领域,具体公开一种基于参数分离和知识蒸馏的图持续学习方法,该方法的输入是一张原图,由节点和边构成,Trans‑CGL首先为图中每个节点构造一个子图,然后通过Graph transformer并行地提取节点特征,此时应用参数分离和知识蒸馏来防止旧任务的特征遗忘,在经过L层Graph transformer之后,最终输出结果。Trans‑CGL由四个主要部分组成:构造子图(Construct subgraph)、参数分离(Parameter isolation)、知识蒸馏(Knowledge distillation)和模型输出(Output)。本发明主要是解决基于参数分离和知识蒸馏的图持续学习(CGL)存在的拓扑引起的灾难性遗忘问题,主要就是节点特征遗忘和拓扑特征遗忘。