-
公开(公告)号:CN117851015A
公开(公告)日:2024-04-09
申请号:CN202410033218.0
申请日:2024-01-09
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种应用多GPU协同进行单源最短路径计算方法,包括步骤:S1、获取原始的第一图数据和预设的步进增量,根据步进增量预先确定第一图数据中的轻边和重边,构建在不同子图分别存储轻边和重边的局部感知的第二图数据;S2、将所述第二图数据中的轻边和重边均衡划分为N份,并根据每份划分到的轻边和重边,生成在不同子图分别存储轻边和重边的第三图数据,得到N份第三图数据,所述N为参与计算的GPU的数量,N≥2;S3、获取源顶点,由N个GPU读取各自分到的第三图数据,基于德尔塔步进算法协同进行单源最短路径计算,确定源顶点到每个顶点间的最短路径;本发明提升了确定单源最短路径的效率。
-
公开(公告)号:CN114896070A
公开(公告)日:2022-08-12
申请号:CN202210617292.8
申请日:2022-06-01
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种用于深度学习任务的GPU资源分配方法,包括:获取深度学习任务对应的网络结构特征、执行特征及可用资源集;基于利用率预测模型根据网络结构特征、执行特征对深度学习任务的资源利用率进行预测,得到资源利用率集;基于资源利用率集从可用资源集中确定满足深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从所有工作节点中选择一个工作节点为深度学习任务分配资源,并将深度学习任务及其资源需求发送给所选择的工作节点。本发明的技术方案通过对深度学习任务的资源需求量进行预测,根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,从而实现容器云集群中的GPU资源共享以及提升容器云集群中的GPU利用率。
-
公开(公告)号:CN118172230A
公开(公告)日:2024-06-11
申请号:CN202410341779.7
申请日:2024-03-25
Applicant: 中国科学院计算技术研究所
IPC: G06T1/20 , G06T1/60 , G06F16/11 , G06F16/16 , G06F16/176
Abstract: 本发明提供一种基于CPU‑GPU协同计算的并发动态图快照处理方法,包括:步骤S1、通过CPU获取动态图快照数据,其包括多张图快照,每张图快照包括多条边、每条边的源节点和目的节点;步骤S2、通过CPU对所述数据进行预处理,得到所有图快照间的共享分区子图和每张图快照的不共享分区子图,共享分区子图和不共享分区子图均包括多个源节点和每个源节点的多条出边;步骤S3、通过CPU和GPU相互配合处理所有图快照的不共享分区子图和所述共享分区子图,包括通过CPU并发执行多个图计算算法处理所述不共享分区子图的多个源节点各自的多条出边,以及通过GPU并发执行多个图计算算法处理所述共享分区子图的多个源节点各自的多条出边,得到每条出边对应的目的节点的属性值。
-
公开(公告)号:CN117971485A
公开(公告)日:2024-05-03
申请号:CN202410161999.1
申请日:2024-02-04
Applicant: 中国科学院计算技术研究所
IPC: G06F9/50 , G06F9/48 , G06F16/901
Abstract: 本发明提出一种针对动态图快照的CPU‑GPU异构并发图处理方法和系统,包括:提取所有图快照的公共子图和每个图快照对应变化的子图,从而形成子图Gs和Gc;将公共子图Gs,依据GPU显存大小和顶点度的属性信息,划分为两部分,分别为Gs0和Gs1,之后将Gs0在初始时一次性拷贝到GPU显存中,Gs1则在迭代处理过程中,按需进行数据重组后,然后以异步多流的方式拷贝到GPU显存中;基于GPU和CPU的计算资源,图处理过程中以顶点为中心,同步迭代方式执行图处理算法。
-
-
-