-
公开(公告)号:CN119783774A
公开(公告)日:2025-04-08
申请号:CN202411732453.3
申请日:2024-11-29
Applicant: 中国电子科技南湖研究院
IPC: G06N3/10
Abstract: 本发明提出一种针对脑仿真的等价网络构建方法,针对脑仿真网络神经元突触连接方式,首先明确融合或拆分比例,并获取融合或拆分后每个神经元簇包含的神经元数量;其次,依据融合或拆分后突触连接方式的规律和分布,得到融合或拆分的突触连接矩阵;最后,按照比例对神经元簇进行融合或拆分,并且依据突触连接方式和连接矩阵来进行突触连接,保证拆分或融合后的神经元簇与原神经元簇等价。本发明无需在芯片上实际创建脑仿真网络,就可以完成对神经元簇的拆分和融合,并且保证所构建的网络与原脑仿真网络等价。从而解决单芯片无法容纳过大的神经元簇,加速脑仿真过程,便于对某些特定神经元的观察。
-
公开(公告)号:CN118261240A
公开(公告)日:2024-06-28
申请号:CN202211691200.7
申请日:2022-12-27
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种基于网络结构和迁移算法的脑仿真网络资源分配方法,属于脑仿真技术领域,包括:提取脑网络信息和抽象集群资源信息;在判断集群资源充足时,根据脑网络信息计算脑模型网络结构中神经元簇的连接紧密程度,并基于神经元簇的连接紧密程度预分配神经元簇;将预分配结果作为迁移算法的初始值,由迁移算法迭代优化神经元簇的分配,得到迭代优化结果;根据迭代优化结果,将分配到同一计算节点的所有神经元簇合并为一个神经元簇,得到最终的资源分配结果;基于资源分配结果实际创建脑仿真网络,完成脑仿真网络资源分配。本发明的资源分配方法减少脑模型的存储空间消耗,提升脑仿真速度。
-
公开(公告)号:CN118378684A
公开(公告)日:2024-07-23
申请号:CN202311846519.7
申请日:2023-12-29
Applicant: 中国电子科技南湖研究院
IPC: G06N3/084 , G06N3/10 , G06N3/0985 , G06N3/0464 , G06N5/04
Abstract: 本发明一种支持任意网络拓扑的高效局部学习系统,应用于各类局部学习任务中,由具有计算能力的电子设备实现,包括:模块层封装的模块包括:rlayer模块、datasets模块、grads模块、metrics模块、optimizer模块;算子层封装的算子类、梯度求解类、优化器类、数据集类及衡量指标函数,对应模块层封装的模块,用于提供模块层所封装的模块的接口;模块层封装的算子、数据集下载与预处理类、优化器类、梯度求导类、指标计算函数均具有输入输出接口,用户可通过rlayer模块按需创建并实例化网络,通过datasets模块下载与预处理数据集,通过optimizer模块选择相应的优化器,通过grads模块选择局部学习梯度求导类,通过metrics模块选择损失与精度计算函数,完成网络及相应超参的初始化,实现网络训练与测试。
-
公开(公告)号:CN115906966A
公开(公告)日:2023-04-04
申请号:CN202211327864.5
申请日:2022-10-27
Applicant: 中国电子科技南湖研究院
IPC: G06N3/063
Abstract: 本发明公开了一种针对大规模脑仿真的快速通信方法,提供了基于GPU‑Direct技术的通讯方式,可通过GPU数据间的直接通信减少了内存与显存间的数据交互,并针对脉冲数据不均衡、脉冲数据量大等问题提出基于多GPU的数据编解码方案,能够在大规模类脑网络建立时按进程排列神经元簇,使同进程的神经元簇分配在连续的地址空间中,并以此设计编码、解码方式用以压缩传输脉冲数据,保证脉冲数据依据多计算节点集群信息进行数据编码压缩与解码时,每次通信数据量是确定的固定值且只与神经元数量有关,减少了计算节点间的数据通讯量,解决了在传统大规模类脑仿真中通讯耗时、内存显存交互耗时和通信量不稳定的问题,适配于多种硬件设备。
-
公开(公告)号:CN119204119A
公开(公告)日:2024-12-27
申请号:CN202310771104.1
申请日:2023-06-27
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种支持快速大规模脑仿真的仿真系统,属于脑仿真技术领域,仿真系统包括硬件设备层,提供多个硬件设备资源;数据通信层,提供各计算节点之间多类型的通信方式;操作抽象层,提供多类型的神经元模型、突触模型、连接规则和学习规则;API层,提供API接口,通过API接口接收用户需求;硬件抽象层,调用对应的硬件内核;网络抽象层,先记录脑仿真网络的拓扑结构,进行资源分配以及神经元簇映射,然后在硬件设备上创建脑仿真网络,最后进行脑仿真网络的训练或执行。本发明充分利用集群硬件资源实现更快更大规模的脑仿真,解决了缺乏资源调度和资源分配、未充分利用设备的并行性、通信耗时过长、支持硬件和接口有限的问题。
-
公开(公告)号:CN119005267A
公开(公告)日:2024-11-22
申请号:CN202310568940.X
申请日:2023-05-16
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种突触权重灵活生成的大规模脑仿真方法及系统,包括:根据输入的脑仿真网络信息,创建神经元簇;判断突触权重的生成方式,生成方式为提前生成和/或按需生成;创建神经元簇之间的连接,若生成方式为提前生成,则保存突触连接的延迟和突触权重,若生成方式为按需生成,则保存突触连接的延迟;运行脑仿真网络模拟,在模拟过程中,若生成方式为提前生成,则直接读取保存的突触权重,若生成方式为按需生成,则随机生成突触权重。本发明同时支持突触权重提前生成和按需生成,保留了脑仿真网络突触可塑性功能的完整性。
-
公开(公告)号:CN116341604A
公开(公告)日:2023-06-27
申请号:CN202310229310.X
申请日:2023-03-06
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种硬件平台及其构建脑仿真网络的方法。该构建脑仿真网络的方法,适用于存储第一通信规则的硬件平台,包括:初始化硬件平台;虚拟创建所述硬件平台的脑仿真网络,其中,所述脑仿真网络包括神经元簇和突触;按照第一通信规则对所述神经元簇分配进程,并利用所述进程实际创建所述脑仿真网络。通过本发明的方案,可以提高脑仿真网络的创建速度,降低通信量,加快仿真速度,快速拿到网络快照信息。
-
公开(公告)号:CN115879544B
公开(公告)日:2023-06-16
申请号:CN202310172752.5
申请日:2023-02-28
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种针对分布式类脑仿真的神经元编码方法及系统,方法包括:接收待创建的神经元簇的神经元数目以及所在的进程号;根据输入的神经元数目计算本次创建神经元簇的局部神经元ID范围;基于局部神经元ID范围,本进程中每个线程并行初始化局部神经元ID;每个线程循环创建本线程负责的神经元,基于初始化的局部神经元ID得到本线程内每个神经元的局部神经元ID,并将局部神经元ID与进程号联合编码得到每个神经元的全局神经元ID,完成神经元簇的创建编码。本发明通过指定创建神经元簇的所在进程,减少跨计算节点或跨进程的远程通信连接,加快仿真速度。
-
公开(公告)号:CN115879544A
公开(公告)日:2023-03-31
申请号:CN202310172752.5
申请日:2023-02-28
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种针对分布式类脑仿真的神经元编码方法及系统,方法包括:接收待创建的神经元簇的神经元数目以及所在的进程号;根据输入的神经元数目计算本次创建神经元簇的局部神经元ID范围;基于局部神经元ID范围,本进程中每个线程并行初始化局部神经元ID;每个线程循环创建本线程负责的神经元,基于初始化的局部神经元ID得到本线程内每个神经元的局部神经元ID,并将局部神经元ID与进程号联合编码得到每个神经元的全局神经元ID,完成神经元簇的创建编码。本发明通过指定创建神经元簇的所在进程,减少跨计算节点或跨进程的远程通信连接,加快仿真速度。
-
公开(公告)号:CN116502683A
公开(公告)日:2023-07-28
申请号:CN202310349036.X
申请日:2023-03-29
Applicant: 中国电子科技南湖研究院
Abstract: 本发明公开了一种全流程并行加速脑仿真方法及系统,应用于GPU,其中全流程并行加速脑仿真方法包括:接收用户输入的簇参数和突触参数;根据簇参数并行创建簇表;根据突触参数并行创建路由表;并行为每个神经元创建脉冲发放矩阵和脉冲接收矩阵;基于簇表、路由表以及脉冲发放矩阵和脉冲接收矩阵进行脑仿真。本发明提供并行化处理可能性,更加适配GPU众核特征。
-
-
-
-
-
-
-
-
-