-
公开(公告)号:CN114911619A
公开(公告)日:2022-08-16
申请号:CN202210522339.2
申请日:2022-05-13
Applicant: 吉林大学
IPC: G06F9/50 , G06F12/0877 , G06T1/20
Abstract: 本发明针对仿真系统的小中型稠密矩阵实现一种基于GPU的高性能批量并行LU分解方法,该方法包括:S1、计算仿真系统的模型单元在每个时间步的雅可比矩阵,并将这些矩阵作为子矩阵,并拼接为大矩阵H;S2、对每个子矩阵内部分块,并按照分块的大小为每个子矩阵分配GPU线程组;S3、所述GPU线程组按照对角顺序从左上到右下,依次完成每个对角块内所有列的主元选取、对角块所在行右侧块的更新、对角块内部列与主元列交换,以及对角块所在列下方和右下方的所有分块数据更新,从而完成对大矩阵H内的所有子矩阵的LU分解。本发明能随着批量数量的增加,性能以近似线性的趋势增加,并且在隐式求解包含大批量小型常微分方程组的模型时,能够加快求解速度,有效缩短仿真时间。
-
公开(公告)号:CN116720032A
公开(公告)日:2023-09-08
申请号:CN202310721329.6
申请日:2023-06-19
Applicant: 吉林大学
IPC: G06F17/16 , G06F12/0866 , G06F12/0877
Abstract: 本发明适用于建模仿真与并行计算交叉技术领域,提供了一种面向复杂系统仿真的小型稠密矩阵的并行LU分解方法,包括以下步骤:将所有子矩阵中索引相同的元素在大矩阵中重新进行排列组合,对于任意两个顺序邻接的子矩阵A(g),A(g+1),重排后它们的元素在存储位置上也构成邻接关系;寄存器缓存;数据读取;基于寄存器regA对矩阵做LU分解;数据写回主存:LU分解完成后,将寄存器regA中处理完成的数据写回主存。该方法通过利用内存合并访问和数据重组,使用寄存器缓存技术有效地减少全局内存访问次数,提高有效计算时间占比,大幅提升分解效率,填补了对小型稠密矩阵并行LU分解效率低的空白。
-
公开(公告)号:CN114816677B
公开(公告)日:2025-04-29
申请号:CN202210596551.3
申请日:2022-05-30
Applicant: 吉林大学
Abstract: 本发明针对弱耦合多系统提出一种基于时域解耦的多速率协同仿真方法,包括S1:协调器确定初始全局仿真推进步长,确定下一同步点;S2:各个子系统内部采用可变步长积分,从当前时刻开始,分别仿真推进到最接近同步点的时刻;S3:各个子系统将上一同步点至当前同步点之间完成的内部的积分子步长序列、输出序列传递到协调器;S4:协调器根据各子系统在当前全局步长内生成的数据,计算下一全局仿真推进步长及下一同步点;S5:协调器计算各个子系统在下一时刻的输入,将其传递到各个子系统;S6:如果当前同步点达到设定的时间点,协同仿真结束;否则,跳转到S2,处理下一轮协同仿真推进。本发明能够有效减少同步次数,提高仿真效率。
-
公开(公告)号:CN114816677A
公开(公告)日:2022-07-29
申请号:CN202210596551.3
申请日:2022-05-30
Applicant: 吉林大学
Abstract: 本发明针对弱耦合多系统提出一种基于时域解耦的多速率协同仿真方法,包括S1:协调器确定初始全局仿真推进步长,确定下一同步点;S2:各个子系统内部采用可变步长积分,从当前时刻开始,分别仿真推进到最接近同步点的时刻;S3:各个子系统将上一同步点至当前同步点之间完成的内部的积分子步长序列、输出序列传递到协调器;S4:协调器根据各子系统在当前全局步长内生成的数据,计算下一全局仿真推进步长及下一同步点;S5:协调器计算各个子系统在下一时刻的输入,将其传递到各个子系统;S6:如果当前同步点达到设定的时间点,协同仿真结束;否则,跳转到S2,处理下一轮协同仿真推进。本发明能够有效减少同步次数,提高仿真效率。
-
-
-