-
公开(公告)号:CN118377616A
公开(公告)日:2024-07-23
申请号:CN202410477287.0
申请日:2024-04-19
Applicant: 北京微电子技术研究所 , 北京时代民芯科技有限公司
IPC: G06F9/50 , G06N3/063 , G06N3/0464
Abstract: 本发明属于人工智能应用领域,涉及一种面向卷积神经网络中大尺度运算的编译器内存分配方法,使硬件加速器对大尺度神经网络运算的高效执行。本发明包括一种面向卷积神经网络算子的大尺度输入/输出的特征图切分方法,根据提出的数据存储方案,分析特征图的数据排布和内存空间大小的关系,对特征图进行切图并归约运算。本发明包括一种面向大尺度卷积核的切分及计算方法,将大尺度卷积核计算拆分为硬件支持的经典卷积核大小,同时标记卷积核在特征图的作用域区间,结合卷积核的运算特性进行归约运算。本发明解决了面对不同神经网络的多种算子在大尺度运算下的内存空间分配问题,间接地简化了硬件加速器和算子库的设计,提升了编译器的泛用性。
-
公开(公告)号:CN116861971A
公开(公告)日:2023-10-10
申请号:CN202310769714.8
申请日:2023-06-27
Applicant: 北京微电子技术研究所 , 北京时代民芯科技有限公司
IPC: G06N3/063 , G06N3/10 , G06N3/0464 , G06F13/28 , G06F15/78
Abstract: 本发明属于嵌入式处理器固件技术领域,具体涉及一种面向神经网络处理器的高效固件运行系统,旨在解决现有的神经网络处理器的固件部署速度慢、占用空间大以及对神经网络编译器编译后生成的文件处理效率低的问题。本系统包括:文件预处理单元,配置为获取神经网络编译器编译后生成的文件并预处理,得到预处理文件;嵌入式硬件平台,配置为将预处理文件存储至设定内存地址;高效固件,配置为读取预处理文件并解析,获取神经网络模型对应的算子流文件,并通过预构建的算子执行高效优化方法顺序执行各算子,直至完成一次完整的神经网络模型的计算。本发明提升了对神经网络编译器编译后生成的文件处理效率,提高了固件部署速度,并减小了占用空间。
-
公开(公告)号:CN118885330A
公开(公告)日:2024-11-01
申请号:CN202410377579.7
申请日:2024-03-29
Applicant: 北京微电子技术研究所 , 北京时代民芯科技有限公司
IPC: G06F11/14 , G06N3/045 , G06N3/0464 , G06N5/04
Abstract: 本发明涉及一种用于神经网络的软错误定位方法及系统,包括获取神经网络前向传播时的中间数据,在数据中确定分析数组;使用肖维纳准则对数组进行异常判断;根据异常值出现节点及位置完成软错误定位。本发明利用了神经网络的冗余性,利用同一节点内数据的相关性,对前向传播中的软错误进行定位,提高了神经网络的稳定性和性能。
-
-