-
公开(公告)号:CN112506666B
公开(公告)日:2024-08-23
申请号:CN202011525125.8
申请日:2020-12-22
Abstract: 本发明公开了一种基于驱动封装的GPU分时共享方法及系统,所述方法包括:获取任务切换指令,并根据所述任务切换指令确定切换前的任务;根据所述切换前的任务,确定所述切换前的任务所占用的GPU显存资源;将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行。本发明可通过截获用户应用对GPU资源的使用,并且在任务切换时,将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行,从而实现了GPU资源在不同任务之间的分时共享,推高了集群资源的利用率,降低了用户的等待时间。
-
公开(公告)号:CN114037047A
公开(公告)日:2022-02-11
申请号:CN202111177498.5
申请日:2021-10-09
Applicant: 鹏城实验室
Abstract: 本发明公开了一种脉冲神经网络的训练方法,所述方法通过获取目标卷积神经网络,其中,所述目标卷积神经网络为预先经过训练的卷积神经网络;将所述目标卷积神经网络转换为初始脉冲神经网络;同时在时间域和空间域对所述初始脉冲神经网络进行训练,将训练后的所述初始脉冲神经网络作为目标脉冲神经网络。由于本发明在将卷积神经网络转换为脉冲神经网络之后,还会对脉冲神经网络在时间域和空间域上进行训练,因此可以进一步优化脉冲神经网络在时间域和空间域上的信息传输能力。从而解决了现有的ANN‑to‑SNN的训练方法得到的SNN,完成一次前向推理所需要的时间步长较长的问题。
-
公开(公告)号:CN112529176B
公开(公告)日:2025-02-07
申请号:CN202011395802.9
申请日:2020-12-03
Applicant: 鹏城实验室
Abstract: 本发明公开了一种加速脉冲神经网络的训练方法、终端及存储介质,所述方法包括:获取用于训练的脉冲序列和初始突触权值,根据所述脉冲序列和所述初始突触权值生成脉冲神经元的输入信号;获取基于所述输入信号产生的实际输出脉冲序列;获取期望输出脉冲序列,根据所述实际输出脉冲序列以及所述期望输出脉冲序列对所述初始突触权值进行更新,以实现对脉冲神经网络进行训练。本发明通过主机设备读取图片数据并转成脉冲序列以及设定初始权值。然后将脉冲神经网络训练中最耗时的参数更新任务交由专门的加速设备处理,提高了参数更新的速度,进而加速了脉冲神经网络的训练过程。从而解决了现有技术中脉冲神经网络的训练过程耗时长的问题。
-
公开(公告)号:CN113326147B
公开(公告)日:2024-04-05
申请号:CN202110544547.8
申请日:2021-05-19
Applicant: 鹏城实验室
IPC: G06F9/54
Abstract: 本发明公开了一种大规模分布式作业状态控制方法、装置、终端及存储介质,方法包括:接收目标消息体,其中,所述目标消息体是当目标作业的子任务状态发生变更时生成的;根据接收到所述目标消息体的接收时间戳和所述目标消息体的生成时间戳确定消息传输延迟时刻;若在所述消息传输延迟时刻前没有接收到新的所述目标消息体,则根据在所述消息传输延迟时刻前存储的所述目标消息体对所述目标作业的状态值进行更新处理。本发明可以避免作业管理系统中显示的作业状态值与实际状态不符。
-
公开(公告)号:CN112529176A
公开(公告)日:2021-03-19
申请号:CN202011395802.9
申请日:2020-12-03
Applicant: 鹏城实验室
Abstract: 本发明公开了一种加速脉冲神经网络的训练方法、终端及存储介质,所述方法包括:获取用于训练的脉冲序列和初始突触权值,根据所述脉冲序列和所述初始突触权值生成脉冲神经元的输入信号;获取基于所述输入信号产生的实际输出脉冲序列;获取期望输出脉冲序列,根据所述实际输出脉冲序列以及所述期望输出脉冲序列对所述初始突触权值进行更新,以实现对脉冲神经网络进行训练。本发明通过主机设备读取图片数据并转成脉冲序列以及设定初始权值。然后将脉冲神经网络训练中最耗时的参数更新任务交由专门的加速设备处理,提高了参数更新的速度,进而加速了脉冲神经网络的训练过程。从而解决了现有技术中脉冲神经网络的训练过程耗时长的问题。
-
公开(公告)号:CN113326147A
公开(公告)日:2021-08-31
申请号:CN202110544547.8
申请日:2021-05-19
Applicant: 鹏城实验室
IPC: G06F9/54
Abstract: 本发明公开了一种大规模分布式作业状态控制方法、装置、终端及存储介质,方法包括:接收目标消息体,其中,所述目标消息体是当目标作业的子任务状态发生变更时生成的;根据接收到所述目标消息体的接收时间戳和所述目标消息体的生成时间戳确定消息传输延迟时刻;若在所述消息传输延迟时刻前没有接收到新的所述目标消息体,则根据在所述消息传输延迟时刻前存储的所述目标消息体对所述目标作业的状态值进行更新处理。本发明可以避免作业管理系统中显示的作业状态值与实际状态不符。
-
公开(公告)号:CN112506666A
公开(公告)日:2021-03-16
申请号:CN202011525125.8
申请日:2020-12-22
Abstract: 本发明公开了一种基于驱动封装的GPU分时共享方法及系统,所述方法包括:获取任务切换指令,并根据所述任务切换指令确定切换前的任务;根据所述切换前的任务,确定所述切换前的任务所占用的GPU显存资源;将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行。本发明可通过截获用户应用对GPU资源的使用,并且在任务切换时,将所述GPU显存资源备份,并在备份完成后释放所述GPU显存资源,以使得切换后的任务使用GPU并运行,从而实现了GPU资源在不同任务之间的分时共享,推高了集群资源的利用率,降低了用户的等待时间。
-
-
-
-
-
-