-
公开(公告)号:CN119513032A
公开(公告)日:2025-02-25
申请号:CN202411440082.1
申请日:2024-10-15
Applicant: 北京航空航天大学
Abstract: 本发明实施例公开了一种静态随机存取存储器存内计算系统及方法,所述系统包括:特征存储器,用于存储神经网络模型的输入信号;SRAM存储阵列,用于存储神经网络模型的各个权重,对输入信号和各个权重进行逻辑运算得到多个逻辑运算结果,各个权重经过CSD编码后划分为多个二元块,经过消除全零模式块的处理后保留互补模式块,每个互补模式块被提取信息后得到索引、符号和值,各个权重以互补模式块的方式存储;元数据存储器,用于存储索引和符号;加法器树,用于根据索引和符号对多个逻辑运算结果进行解码以及加法运算;移位累加单元,用于对加法结果进行移位累加;后处理单元,用于对移位累加结果进行后处理得到神经网络模型的输出信号。
-
公开(公告)号:CN119476391A
公开(公告)日:2025-02-18
申请号:CN202411388983.0
申请日:2024-09-30
Applicant: 北京航空航天大学
Abstract: 本申请实施例公开了一种端边协同图神经网络的架构搜索、部署方法及装置,属于计算机技术领域。其中,架构搜索方法包括:获取目标协同图神经网络的目标应用场景信息;基于所述目标应用场景信息以及协同图神经网络超网,得到所述目标协同图神经网络的多个候选架构;其中,所述协同图神经网络超网中的每一层包含协同搜索空间中的各操作以及各操作对应的函数,所述操作包括通信操作,每个候选架构通过在所述协同图神经网络超网的每一层中随机选择目标操作和目标操作对应的目标函数得到;基于每个候选架构在目标端边环境信息下针对目标应用标识信息的协同推理性能信息,在所述多个候选架构中选择所述目标协同图神经网络的目标架构。
-
公开(公告)号:CN118353636B
公开(公告)日:2024-11-26
申请号:CN202410501941.7
申请日:2024-04-24
Applicant: 北京航空航天大学
Abstract: 本申请实施例公开了一种支持国密SM2算法的硬件加速器及加速方法,所述加速器包括:控制模块,用于通过接口接收输入数据,对输入数据和椭圆曲线参数中的点值数据执行仿射坐标到雅可比坐标的转换,将输入数据和椭圆曲线参数中的标量数据与雅可比坐标的点值数据发送给ECC引擎;ECC引擎,用于根据标量数据与雅可比坐标的点值数据,以流水线方式执行模运算以及以有限状态机方式执行椭圆曲线的点运算;哈希模块,用于根据点运算结果在加解密过程中执行哈希函数运算;坐标转换模块,用于对点运算结果执行雅可比坐标到仿射坐标的转换;控制模块还用于控制以模运算、点运算和哈希函数运算中的至少一种运算结果作为输出数据通过接口发送。
-
公开(公告)号:CN118504641A
公开(公告)日:2024-08-16
申请号:CN202410633919.8
申请日:2024-05-21
Applicant: 北京航空航天大学
IPC: G06N3/082 , G06N3/0464 , G06N3/0499 , G06T7/11
Abstract: 本发明实施例公开了一种硬件感知动态压缩方法及装置,应用于微控制器,所述方法包括:基于预设的压缩配置搜索空间对神经网络模型进行多次搜索及训练,根据训练得到的模型性能选取符合要求的压缩配置,根据压缩配置中的目标稀疏度和块尺寸,以块为单位对神经网络模型的权重执行剪枝,基于对输入图像的令牌进行预测来构建掩码矩阵,通过掩码矩阵对注意力分数矩阵进行掩码操作,对输入图像进行稀疏化,将神经网络模型中的非线性算子量化为整型运算。本发明显著缩减了神经网络模型的体积,降低了模型的存储需求,提高了资源的利用效率,提升了推理速度,克服了在微控制器上部署神经网络模型的局限性。
-
公开(公告)号:CN116643797A
公开(公告)日:2023-08-25
申请号:CN202310375902.2
申请日:2023-04-11
Applicant: 北京航空航天大学
Abstract: 本发明属于神经网络技术领域。具体为用于贝叶斯深度神经网络的异步并行流水线计算方法,具有多条乘法计算工作流,数据的载入与计算并行工作,数据采取串行输入的方式,数据满载状态下,数据执行异步并行计算,所有计算流被启动以执行数据乘法,但每个输入数据只占用其中一条计算流。本发明通过设计异步并行的流水线数据计算方式,减少电路扇出并提升计算效率。解决了贝叶斯深度神经网络存在大量采样操作和前馈计算,导致其数据计算量及复杂度要远大于标准神经网络,计算电路延迟高,布线复杂,运行时间长的问题。在保持计算架构不变的情况下,本发明可以将系统的工作频率提高近两倍。
-
公开(公告)号:CN116484906A
公开(公告)日:2023-07-25
申请号:CN202310444200.5
申请日:2023-04-23
Applicant: 北京航空航天大学
Abstract: 本发明提供了一种图神经网络架构搜索方法和装置,涉及人工智能及深度学习技术领域,方法包括:基于应用需求对图神经网络搜索空间进行超网构建,搜索空间包括函数空间和操作空间;执行对函数空间的搜索以确定一种使得超网准确率最高的函数组合;根据准确率最高的函数组合固定超网上每个位置的函数;执行对操作空间的搜索来确定满足应用需求中硬件效率需求及准确率需求的最优图神经网络架构。本发明将搜索空间分为了函数空间和操作空间,且通过超网的形式来对搜索空间进行组织,可以有效降低搜索时间。另外本申请结合硬件感知装置,可以有效提高搜索出的图神经网络架构在目标设备上的实际硬件效率。
-
公开(公告)号:CN111368988B
公开(公告)日:2022-12-20
申请号:CN202010128655.2
申请日:2020-02-28
Applicant: 北京航空航天大学
Abstract: 本发明公开了一种利用稀疏性的深度学习算法训练加速器及加速训练方法,将模型训练的计算过程分解为多个一维离散稀疏卷积操作及其结果的求和。本发明的加速器可以同时支持激活值稀疏性和梯度稀疏性,同时支持仅计算结果向量的指定分量;显著降低了训练过程的计算与访存开销;另外在该加速器的基础上引入梯度计算结果的剪枝,提高了梯度数据稀疏性,从而进一步提升计算性能和效率。
-
公开(公告)号:CN110766136B
公开(公告)日:2022-09-09
申请号:CN201910982345.4
申请日:2019-10-16
Applicant: 北京航空航天大学
Abstract: 本发明提供一种应用于稀疏矩阵与向量的压缩方法:增强坐标列表(ECOO,enhanced coordinate list)。包括在压缩过程中对矩阵或向量按行(列)划分成多个数据段。在分段后将每个非零数据用三元组表示,包括数值(value)、段内偏移(offset)以及段末标记(EOG,end of group)。本压缩方法其能够利用有限的位宽表示任意大的稀疏矩阵与向量、同时能以较低的开销完成解码操作。因此,相比于朴素的坐标列表(COO,coordinate list)压缩方法、本方法尤其适用于位宽有限的硬件结构之中存储需按行或列访问稀疏矩阵或向量。
-
公开(公告)号:CN114398930A
公开(公告)日:2022-04-26
申请号:CN202210044447.3
申请日:2022-01-14
Applicant: 北京航空航天大学
Abstract: 本发明提供一种基于振荡神经网络的信息内容确认方法及系统,其方法包括:将输入的数字信号编码为至少一个第一频率信号;对每个所述第一频率信号进行特征抽象化操作,生成对应的第二频率信号;对每个所述第二频率信号进行分类,输出分类结果,以基于所述分类结果确认所述待确认信息的内容,本发明通过对频率信号进行特征抽象化操作,进而克服了由于频率信号数值范围大且离散的特点,现有的传统神经网络训练方法无法应用于其上的问题,本发明的神经网络模型采用频率信号确认信息,可以实现高效、精确的振荡神经网络神经网络训练与推理,同时不存在实际部署导致的精度丢失问题。
-
公开(公告)号:CN114154644A
公开(公告)日:2022-03-08
申请号:CN202111443501.3
申请日:2021-11-30
Applicant: 北京航空航天大学
Abstract: 本申请提供一种机器学习数据处理方法及装置,涉及人工智能领域,包括:接收数据处理请求方发送的待处理原数据的处理请求;构建加速器部署接口,并调用调用所述加速器部署接口将所述工程文件发送至AI加速器,使所述AI加速器根据所述机器学习模型及推理执行代码对所述待处理原数据进行推理执行,得到处理请求对应的推理执行结果;接收所述AI加速器回传的推理执行结果,并将所述推理执行结果反馈至所述数据处理请求方。本申请能够构建加速器部署接口以使用AI加速器得到推理执行结果,从系统层面分离了AI加速器硬件设备与管理服务器软件之间的联系,具有优秀的设备可扩展性。
-
-
-
-
-
-
-
-
-