一种支持任意网络拓扑的高效局部学习系统及方法

    公开(公告)号:CN118378684A

    公开(公告)日:2024-07-23

    申请号:CN202311846519.7

    申请日:2023-12-29

    Abstract: 本发明一种支持任意网络拓扑的高效局部学习系统,应用于各类局部学习任务中,由具有计算能力的电子设备实现,包括:模块层封装的模块包括:rlayer模块、datasets模块、grads模块、metrics模块、optimizer模块;算子层封装的算子类、梯度求解类、优化器类、数据集类及衡量指标函数,对应模块层封装的模块,用于提供模块层所封装的模块的接口;模块层封装的算子、数据集下载与预处理类、优化器类、梯度求导类、指标计算函数均具有输入输出接口,用户可通过rlayer模块按需创建并实例化网络,通过datasets模块下载与预处理数据集,通过optimizer模块选择相应的优化器,通过grads模块选择局部学习梯度求导类,通过metrics模块选择损失与精度计算函数,完成网络及相应超参的初始化,实现网络训练与测试。

    一种针对大规模脑仿真的快速通信方法

    公开(公告)号:CN115906966A

    公开(公告)日:2023-04-04

    申请号:CN202211327864.5

    申请日:2022-10-27

    Abstract: 本发明公开了一种针对大规模脑仿真的快速通信方法,提供了基于GPU‑Direct技术的通讯方式,可通过GPU数据间的直接通信减少了内存与显存间的数据交互,并针对脉冲数据不均衡、脉冲数据量大等问题提出基于多GPU的数据编解码方案,能够在大规模类脑网络建立时按进程排列神经元簇,使同进程的神经元簇分配在连续的地址空间中,并以此设计编码、解码方式用以压缩传输脉冲数据,保证脉冲数据依据多计算节点集群信息进行数据编码压缩与解码时,每次通信数据量是确定的固定值且只与神经元数量有关,减少了计算节点间的数据通讯量,解决了在传统大规模类脑仿真中通讯耗时、内存显存交互耗时和通信量不稳定的问题,适配于多种硬件设备。

Patent Agency Ranking