面向异构集群的脉冲神经网络分布式部署和模拟方法

    公开(公告)号:CN120012841A

    公开(公告)日:2025-05-16

    申请号:CN202411941295.2

    申请日:2024-12-26

    Applicant: 清华大学

    Abstract: 本申请涉及一种面向异构集群的脉冲神经网络分布式部署和模拟方法,其中,方法包括:基于预设的突触编号和神经元编号,确定目标突触前神经元和目标突触后神经元之间的双向连接关系,以根据双向连接关系构建可逆型脉冲神经网络;对多种异构计算单元进行划分,以得到多个子通信架构,并通过多个子通信架构和预设通信策略构建层次化集群通信架构;评估层次化集群通信架构中每个异构计算单元的计算效率,以基于计算效率和层次化集群通信架构,执行可逆型脉冲神经网络的网络分割和任务划分操作。由此,解决了现有的SNN网络模拟过程的前向连接和SNN学习算法的反向连接表示形式不兼容,且在集群SNN仿真系统中,服务器间通信总量大,报文冗余度高等问题。

    在多核CPU架构上的稀疏下三角方程求解器的性能优化方法

    公开(公告)号:CN115951994A

    公开(公告)日:2023-04-11

    申请号:CN202211617705.9

    申请日:2022-12-15

    Applicant: 清华大学

    Inventor: 费翔 张悠慧

    Abstract: 本发明公开了一种在多核CPU架构上的稀疏下三角方程求解器的性能优化方法、系统、电子设备和存储介质,具体包括:把稀疏下三角矩阵拓扑排序后转换为有向无环图,即DAG图,将所述DAG图中每层的任务分别分配给多个线程,其中,在计算下三角矩阵的任一行所需要使用的NNZ中,当由同一个线程计算得到的NNZ占对应行全部所述NNZ的比例超过预设阈值时,优先把对应行的任务分配给所述线程,这里NNZ指矩阵中的非零元素;根据任务分配情况,寻找并删除所有冗余的数据依赖;寻找满足提前计算条件的行并进行提前计算。上述过程能够进一步减少冗余数据依赖,提高任务并行度和数据局部性,提高多核CPU架构下的稀疏下三角方程求解器的性能。

    硬件神经网络转换方法、计算装置、软硬件协作系统

    公开(公告)号:CN106650922B

    公开(公告)日:2019-05-03

    申请号:CN201610865581.4

    申请日:2016-09-29

    Applicant: 清华大学

    Inventor: 张悠慧 季宇

    Abstract: 将神经网络应用转换为满足硬件约束条件的硬件神经网络的硬件神经网络转换方法、计算装置、编译方法、神经网络软硬件协作系统,该方法包括:获得神经网络应用对应的神经网络连接图;将神经网络连接图拆分为神经网络基本单元;将每个神经网络基本单元转换为与之功能等效的由神经网络硬件的基本模块虚拟体连接成的网络;将得到的基本单元硬件网络按照拆分的顺序连接起来,生成硬件神经网络的参数文件。本发明提出了一种全新的神经网络和类脑计算的软硬件体系,在神经网络应用和神经网络芯片之间加上了一个中间编译层,解决了神经网络应用与神经网络应用芯片之间的适配问题,同时解耦合了应用和芯片的开发。

    基于应用虚拟化的网络实时音频传输方法

    公开(公告)号:CN103701854B

    公开(公告)日:2017-06-23

    申请号:CN201310629091.0

    申请日:2013-11-29

    Abstract: 一种基于应用虚拟化的网络实时音频传输方法,应用于服务端,该方法包括:重定向步骤,当用户在客户端上要使用服务端上的应用时,利用服务端的应用层声音捕捉装置实时捕捉服务端的所述应用产生的音频内容;处理步骤,对所捕获的音频内容进行处理以转换为客户端能够识别的音频数据格式;发送步骤,将处理后的音频内容通过网络传输给客户端。本发明可以在不支持大型3D游戏的客户端设备上支持游戏音频的实时回放;并可以在原先不支持现有网游的客户端设备上支持网游音频回放,大大扩展了游戏的受众范围。

    片上网络的Flit传输方法及装置

    公开(公告)号:CN105095147A

    公开(公告)日:2015-11-25

    申请号:CN201410216331.9

    申请日:2014-05-21

    CPC classification number: H04L45/74 G06F15/163 H04L12/00 H04L12/50

    Abstract: 本发明公开了片上Flit传输方法及片上Flit传输装置。方法包括:接收包括任务编号Op ID、操作类型Op Type及数据负载Payload的当前数据分片Flit;在确定需要对所述当前Flit进行加速处理时,根据所述Op Type判断所述当前Flit的Payload是否会影响所述当前Flit的目的节点的执行结果,所述执行结果为所述目的节点执行与所述Op ID对应的任务得出的结果;如果判断结果为是,则将所述当前Flit转发到下一节点;如果判断结果为否,则丢弃所述当前Flit。采用本发明不但能大大减少片上网络需要传输的Flit的数量,而且能减少目的节点的运算量。

    非统一内存访问系统中线程化串行程序的方法及装置

    公开(公告)号:CN102520915A

    公开(公告)日:2012-06-27

    申请号:CN201110381862.X

    申请日:2011-11-25

    Abstract: 本发明实施例公开了一种非统一内存访问系统中线程化串行程序的方法及装置,涉及多线程技术领域,能够缓减在非统一内存访问系统中由于访存延时差异所导致的多核处理器执行串行程序时的性能的降低。本发明的方法包括:接收待处理的串行程序;获取多核处理器的信息,其中包括多核处理器的互联结构信息、每个所述处理器核的访存延时中的至少一项;将所述串行程序中的可用循环部分线程化为推测线程,将所述串行程序中的串行部分和非可用循环部分线程化为控制线程;根据所述互联结构信息和所述延时信息中的至少一项,将所述控制线程和所述推测线程分配至处理器核。本发明用于支持推测多线程机制的非统一内存访问系统中线程化执行串行程序。

    利用移动存储设备在计算机上重现用户配置环境的方法

    公开(公告)号:CN101221510B

    公开(公告)日:2012-05-16

    申请号:CN200810056741.6

    申请日:2008-01-24

    Applicant: 清华大学

    Abstract: 一种利用移动存储设备在计算机上重现用户配制环境的方法,能够将与用户个性化配置环境相关的配置信息提取出来并存放于移动存储设备上,在目标计算机上把对这些配置信息的操作重定向到移动存储设备上,从而重现用户自己的个性化配置环境。技术方案是:将系统配置信息与环境变量,存储在移动存储设备上,并在运行时通过系统调用包裹技术截获对于这些资源的访问并重定向到移动存储设备上在几乎不影响性能和可靠性的前提下重现用户的个性化配置环境。它兼容已有的视窗应用软件,不需要修改其源代码。

    一种访问Web资源的方法及装置

    公开(公告)号:CN102118442A

    公开(公告)日:2011-07-06

    申请号:CN201110042130.8

    申请日:2011-02-21

    Applicant: 清华大学

    Abstract: 本发明提供了一种访问Web资源的方法及装置,以解决现有技术需先下载才能使用的问题。所述方法包括:截获文件系统访问请求,所述访问请求中包含要访问的文件的元数据信息和访问的操作类型;根据要访问的文件的元数据信息和访问的操作类型,执行相应的操作,所述操作包括:如果所述要访问的文件是远程Web服务器上的文件,则执行远程访问操作;如果所述要访问的文件是本地文件,则执行本地访问操作。本发明将Web上共享的文件以本地文件的形式呈现给用户,将用户的文件访问重定向到Web服务器或者本地文件,从而使用户以访问本地驱动器上的文件的形式来访问Web共享文件,对用户的使用习惯、便捷性以及应用的透明性而言,具有很大优势。

    一种计算设备及神经网络的加速方法

    公开(公告)号:CN112749784B

    公开(公告)日:2024-05-14

    申请号:CN201911063237.3

    申请日:2019-10-31

    Abstract: 本申请实施例公开了一种计算设备,包括:计算阵列,包括多个计算单元,用于将输入数据与预设的权重矩阵进行计算,获得第一计算结果,其中,所述第一计算结果为模拟信号形式,所述输入数据为数字信号形式;模拟运算电路,连接所述计算阵列,用于对所述第一计算结果进行逐点运算,获得第二计算结果,其中,所述第二计算结果为模拟信号形式;模数转换电路,连接所述模拟运算电路,用于将所述第二计算结果转换为数字信号,获得第三计算结果。采用本申请实施例,可以减少硬件开销,降低功耗。

    一种基于向量指令集实现类脑计算的方法及装置

    公开(公告)号:CN114816067A

    公开(公告)日:2022-07-29

    申请号:CN202210489441.7

    申请日:2022-05-06

    Applicant: 清华大学

    Inventor: 张悠慧 陈嘉杰

    Abstract: 本发明实施例公开一种基于向量指令集实现类脑计算的方法及装置,所述方法包括:根据自定义的向量指令集编译脉冲神经网络模型,生成向量指令和配置指令;类脑计算向量处理器的访存单元依据所述配置指令进行访存操作;同时,计算单元根据向量指令进行计算。通过上述方式,本发明实施例采用自定义的向量指令集和向量处理器的方式,针对脉冲神经网络模拟中涉及到的稀疏计算进行优化;为用户提供了方便使用的前端,有利于用户从其他支持Python的脉冲神经网络模拟器移植代码;实现了计算核心中的访存步骤与计算步骤分离,且使得访存步骤和计算步骤可以同时进行,实现访存和计算在时间上的高效重叠。

Patent Agency Ranking