一种针对大规模脑仿真的快速通信方法

    公开(公告)号:CN115906966A

    公开(公告)日:2023-04-04

    申请号:CN202211327864.5

    申请日:2022-10-27

    Abstract: 本发明公开了一种针对大规模脑仿真的快速通信方法,提供了基于GPU‑Direct技术的通讯方式,可通过GPU数据间的直接通信减少了内存与显存间的数据交互,并针对脉冲数据不均衡、脉冲数据量大等问题提出基于多GPU的数据编解码方案,能够在大规模类脑网络建立时按进程排列神经元簇,使同进程的神经元簇分配在连续的地址空间中,并以此设计编码、解码方式用以压缩传输脉冲数据,保证脉冲数据依据多计算节点集群信息进行数据编码压缩与解码时,每次通信数据量是确定的固定值且只与神经元数量有关,减少了计算节点间的数据通讯量,解决了在传统大规模类脑仿真中通讯耗时、内存显存交互耗时和通信量不稳定的问题,适配于多种硬件设备。

    一种支持快速大规模脑仿真的仿真系统

    公开(公告)号:CN119204119A

    公开(公告)日:2024-12-27

    申请号:CN202310771104.1

    申请日:2023-06-27

    Abstract: 本发明公开了一种支持快速大规模脑仿真的仿真系统,属于脑仿真技术领域,仿真系统包括硬件设备层,提供多个硬件设备资源;数据通信层,提供各计算节点之间多类型的通信方式;操作抽象层,提供多类型的神经元模型、突触模型、连接规则和学习规则;API层,提供API接口,通过API接口接收用户需求;硬件抽象层,调用对应的硬件内核;网络抽象层,先记录脑仿真网络的拓扑结构,进行资源分配以及神经元簇映射,然后在硬件设备上创建脑仿真网络,最后进行脑仿真网络的训练或执行。本发明充分利用集群硬件资源实现更快更大规模的脑仿真,解决了缺乏资源调度和资源分配、未充分利用设备的并行性、通信耗时过长、支持硬件和接口有限的问题。

    一种针对分布式类脑仿真的神经元编码方法及系统

    公开(公告)号:CN115879544B

    公开(公告)日:2023-06-16

    申请号:CN202310172752.5

    申请日:2023-02-28

    Abstract: 本发明公开了一种针对分布式类脑仿真的神经元编码方法及系统,方法包括:接收待创建的神经元簇的神经元数目以及所在的进程号;根据输入的神经元数目计算本次创建神经元簇的局部神经元ID范围;基于局部神经元ID范围,本进程中每个线程并行初始化局部神经元ID;每个线程循环创建本线程负责的神经元,基于初始化的局部神经元ID得到本线程内每个神经元的局部神经元ID,并将局部神经元ID与进程号联合编码得到每个神经元的全局神经元ID,完成神经元簇的创建编码。本发明通过指定创建神经元簇的所在进程,减少跨计算节点或跨进程的远程通信连接,加快仿真速度。

    一种针对分布式类脑仿真的神经元编码方法及系统

    公开(公告)号:CN115879544A

    公开(公告)日:2023-03-31

    申请号:CN202310172752.5

    申请日:2023-02-28

    Abstract: 本发明公开了一种针对分布式类脑仿真的神经元编码方法及系统,方法包括:接收待创建的神经元簇的神经元数目以及所在的进程号;根据输入的神经元数目计算本次创建神经元簇的局部神经元ID范围;基于局部神经元ID范围,本进程中每个线程并行初始化局部神经元ID;每个线程循环创建本线程负责的神经元,基于初始化的局部神经元ID得到本线程内每个神经元的局部神经元ID,并将局部神经元ID与进程号联合编码得到每个神经元的全局神经元ID,完成神经元簇的创建编码。本发明通过指定创建神经元簇的所在进程,减少跨计算节点或跨进程的远程通信连接,加快仿真速度。

    一种基于网络结构和迁移算法的脑仿真网络资源分配方法

    公开(公告)号:CN118261240A

    公开(公告)日:2024-06-28

    申请号:CN202211691200.7

    申请日:2022-12-27

    Abstract: 本发明公开了一种基于网络结构和迁移算法的脑仿真网络资源分配方法,属于脑仿真技术领域,包括:提取脑网络信息和抽象集群资源信息;在判断集群资源充足时,根据脑网络信息计算脑模型网络结构中神经元簇的连接紧密程度,并基于神经元簇的连接紧密程度预分配神经元簇;将预分配结果作为迁移算法的初始值,由迁移算法迭代优化神经元簇的分配,得到迭代优化结果;根据迭代优化结果,将分配到同一计算节点的所有神经元簇合并为一个神经元簇,得到最终的资源分配结果;基于资源分配结果实际创建脑仿真网络,完成脑仿真网络资源分配。本发明的资源分配方法减少脑模型的存储空间消耗,提升脑仿真速度。

    一种大规模脑仿真通信库的融合系统及融合方法

    公开(公告)号:CN119537046A

    公开(公告)日:2025-02-28

    申请号:CN202311109157.3

    申请日:2023-08-30

    Abstract: 本发明提出一种大规模脑仿真通信库的融合系统及融合方法,该系统包括:统一应用接口层,定义面向用户的统一应用接口,用户通过调用统一应用接口层,将需要通信的缓冲区地址、数据大小信息传至具体的通信后端;硬件适配层,包含统一的接口描述、操作符和数据类型的接口层和进行统一资源管理的内核层;后端层,封装了基于不同硬件平台的通信后端的通信接口,实现具体的通信功能;硬件层,包括硬件及其驱动、软件开发工具包。本发明的方案简化了用户编程、提高了应用的兼容性和可移植性,通过构建了与具体硬件平台无关的统一聚合通信接口库,向上层应用提供统一的通信接口,向下兼容不同的硬件平台,可支持不同硬件平台的大规模脑仿真。

Patent Agency Ranking