-
公开(公告)号:CN112733401B
公开(公告)日:2024-03-12
申请号:CN202011607981.8
申请日:2020-12-30
Applicant: 杭州电子科技大学 , 中国科学院计算机网络信息中心
Abstract: 本发明公开一种面向反应堆堆芯组件数值模拟的有限元撕裂对接法及系统。n个计算节点中每个计算节点均设有上述有限元撕裂对接系统,每个计算节点拥有g块类GPU加速器。本发明采用了负载均衡策略,使得各进程的稠密矩阵内存大小趋于平均值,充分利用集群资源,加快求解速度。采用HIP编程,使得有限元撕裂对接法运行在NvidiaCUDA平台和AMDROMc平台。在迭代求解过程的稠密矩阵向量乘阶段中,采用动态分配矩阵策略,使得不同处理器分配到合适的计算量,以充分利用计算资源,加快求解速度。在向量内积阶段,采用了向量内积加速策略和通信计算重叠策略,通过引入通信线程,减少通信等待时间,加快向量内积速度。
-
公开(公告)号:CN112464540B
公开(公告)日:2024-10-01
申请号:CN202011495076.8
申请日:2020-12-17
Applicant: 杭州电子科技大学 , 中国科学院计算机网络信息中心
IPC: G06F30/23 , G06F111/10
Abstract: 本发明提供一种适用于数值反应堆的大规模并行网格生成方法和系统,包括基于无锁原子操作的网格单元构造方法,用于提高多线程网格构造效率,避免线程阻塞等待;基于OpenMP框架的并行网格转换方法,用于加快网格转换过程,缩短网格转换时间;网格生成器与求解器集成方法,用于避免网格文件写入、读取的I/O时长。本发明满足了大规模并行网格生成的巨大需求,用户能够在更短的时间内获得指定规模的网格,且能够保证良好的网格质量。本发明提出的将网格生成器与求解器集成的方案,能形成整体的数值模拟框架,降低用户使用成本,并且进一步缩短网格生成时间。
-
公开(公告)号:CN112733401A
公开(公告)日:2021-04-30
申请号:CN202011607981.8
申请日:2020-12-30
Applicant: 杭州电子科技大学 , 中国科学院计算机网络信息中心
Abstract: 本发明公开一种面向反应堆堆芯组件数值模拟的有限元撕裂对接法及系统。n个计算节点中每个计算节点均设有上述有限元撕裂对接系统,每个计算节点拥有g块类GPU加速器。本发明采用了负载均衡策略,使得各进程的稠密矩阵内存大小趋于平均值,充分利用集群资源,加快求解速度。采用HIP编程,使得有限元撕裂对接法运行在NvidiaCUDA平台和AMDROMc平台。在迭代求解过程的稠密矩阵向量乘阶段中,采用动态分配矩阵策略,使得不同处理器分配到合适的计算量,以充分利用计算资源,加快求解速度。在向量内积阶段,采用了向量内积加速策略和通信计算重叠策略,通过引入通信线程,减少通信等待时间,加快向量内积速度。
-
公开(公告)号:CN112464540A
公开(公告)日:2021-03-09
申请号:CN202011495076.8
申请日:2020-12-17
Applicant: 杭州电子科技大学 , 中国科学院计算机网络信息中心
IPC: G06F30/23 , G06F111/10
Abstract: 本发明提供一种适用于数值反应堆的大规模并行网格生成方法和系统,包括基于无锁原子操作的网格单元构造方法,用于提高多线程网格构造效率,避免线程阻塞等待;基于OpenMP框架的并行网格转换方法,用于加快网格转换过程,缩短网格转换时间;网格生成器与求解器集成方法,用于避免网格文件写入、读取的I/O时长。本发明满足了大规模并行网格生成的巨大需求,用户能够在更短的时间内获得指定规模的网格,且能够保证良好的网格质量。本发明提出的将网格生成器与求解器集成的方案,能形成整体的数值模拟框架,降低用户使用成本,并且进一步缩短网格生成时间。
-
公开(公告)号:CN109271015B
公开(公告)日:2020-07-24
申请号:CN201811177821.7
申请日:2018-10-10
Applicant: 杭州电子科技大学
IPC: G06F1/329 , G06F1/3287 , G06F1/3206 , G06F9/50
Abstract: 本发明公开了一种降低大规模分布式机器学习系统能耗的方法。本发明通过分类器对分布式机器学习系统的负载进行分类识别、状态预测,并通过减少分布式参数服务器间的通信加速任务运行来降低整个分布式机器学习系统的能耗。本发明的方法包含两部分:机器学习负载预测与类型识别方法、分布式机器学习节点间参数“懒同步”机制。本发明通过只将显著更新传递到远程数据中心来减少广域网通信的参数同步机制可以有效减少系统等待时长,加快机器学习收敛速率。对机器学习负载的预测和类型的判别有助于提高工作机的利用率,避免大量工作机开启后处于闲置状态。以上方法缩短了机器学习任务的执行时间,提高了工作机利用率,大大降低了系统能耗。
-
公开(公告)号:CN109271015A
公开(公告)日:2019-01-25
申请号:CN201811177821.7
申请日:2018-10-10
Applicant: 杭州电子科技大学
IPC: G06F1/329 , G06F1/3287 , G06F1/3206 , G06F9/50
Abstract: 本发明公开了一种降低大规模分布式机器学习系统能耗的方法。本发明通过分类器对分布式机器学习系统的负载进行分类识别、状态预测,并通过减少分布式参数服务器间的通信加速任务运行来降低整个分布式机器学习系统的能耗。本发明的方法包含两部分:机器学习负载预测与类型识别方法、分布式机器学习节点间参数“懒同步”机制。本发明通过只将显著更新传递到远程数据中心来减少广域网通信的参数同步机制可以有效减少系统等待时长,加快机器学习收敛速率。对机器学习负载的预测和类型的判别有助于提高工作机的利用率,避免大量工作机开启后处于闲置状态。以上方法缩短了机器学习任务的执行时间,提高了工作机利用率,大大降低了系统能耗。
-
-
-
-
-