一种基于E-G两步法的配对交易协整关系加速验证方法

    公开(公告)号:CN112131529B

    公开(公告)日:2023-10-13

    申请号:CN202010999435.7

    申请日:2020-09-22

    Applicant: 南京大学

    Abstract: 本申请公开一种基于E‑G两步法的配对交易协整关系加速验证方法,包括:获取待验证协整关系的两个时间序列;对其残差及所述残差的差分进行增广迪基福勒检验,其中:利用LDLT分解法求解最大滞后阶数对应的回归分析结果;根据所述最大滞后阶数对应的回归分析结果,获取全部滞后阶数对应的回归分析结果,得到对应的误差平方和;利用优化的赤池信息量准则公式,计算所述全部滞后阶数对应的赤池信息量准则函数值;选取最小的所述赤池信息量准则函数值对应的滞后阶数为最优滞后阶数;得到所述最优滞后阶数对应的回归系数。本申请针对传统算法中的多次应用普通最小二乘法算法进行算法强度缩减和近似计算,提高两个时间序列协整关系的验证速度。

    一种适配深度学习硬件加速器的可重构激活函数硬件装置

    公开(公告)号:CN115936076A

    公开(公告)日:2023-04-07

    申请号:CN202211660618.1

    申请日:2022-12-23

    Applicant: 南京大学

    Abstract: 本发明提供了一种适配深度学习硬件加速器的可重构激活函数硬件装置,包括函数类型判断单元、ReLU计算单元、简化函数计算单元、可变精度单元和优化函数计算单元。该发明充分利用不同非线性激活函数计算表达式之间的相关性,可以实现对ReLU函数、ReLU6函数、PReLU函数、Leaky ReLU函数、Sigmoid函数、Tanh函数、Swish函数、H‑Sigmoid函数和H‑Swish函数九种神经网络常用激活函数的近似计算,从而适配多功能的深度学习硬件加速器,在计算资源和近似精度之间取得了很好的平衡,具有计算效率高、灵活、可重构等特点。

    一种基于E-G两步法的配对交易协整关系加速验证方法

    公开(公告)号:CN112131529A

    公开(公告)日:2020-12-25

    申请号:CN202010999435.7

    申请日:2020-09-22

    Applicant: 南京大学

    Abstract: 本申请公开一种基于E‑G两步法的配对交易协整关系加速验证方法,包括:获取待验证协整关系的两个时间序列;对其残差及所述残差的差分进行增广迪基福勒检验,其中:利用LDLT分解法求解最大滞后阶数对应的回归分析结果;根据所述最大滞后阶数对应的回归分析结果,获取全部滞后阶数对应的回归分析结果,得到对应的误差平方和;利用优化的赤池信息量准则公式,计算所述全部滞后阶数对应的赤池信息量准则函数值;选取最小的所述赤池信息量准则函数值对应的滞后阶数为最优滞后阶数;得到所述最优滞后阶数对应的回归系数。本申请针对传统算法中的多次应用普通最小二乘法算法进行算法强度缩减和近似计算,提高两个时间序列协整关系的验证速度。

    应用于Transformer神经网络的硬件加速器及其计算方法

    公开(公告)号:CN114118344A

    公开(公告)日:2022-03-01

    申请号:CN202010900182.3

    申请日:2020-08-31

    Applicant: 南京大学

    Abstract: 本申请公开了应用于Transformer神经网络的硬件加速器及其计算方法,该硬件加速器包括:数据存储模块、脉动阵列模块、偏置相加模块、点积注意力函数运算模块、激活函数运算模块、残差相加模块、层归一化函数运算模块及控制模块。脉动阵列模块包括多个用于执行矩阵计算的基本运算单元,控制模块用于控制硬件加速器的计算流程。基于能够执行Transformer神经网络中所有矩阵计算的脉动阵列模块,上述硬件加速器可有效提高Transformer神经网络的运算速度及效率。

    应用于Transformer神经网络的层归一化处理硬件加速器及方法

    公开(公告)号:CN114118343A

    公开(公告)日:2022-03-01

    申请号:CN202010898001.8

    申请日:2020-08-31

    Applicant: 南京大学

    Abstract: 本申请公开了应用于Transformer神经网络的层归一化处理硬件加速器及方法,该硬件加速器包括中间矩阵存储单元、第一均值计算单元、第二均值计算单元、第一平方计算单元、第二平方计算单元、平方根倒数计算单元及输出矩阵计算单元。中间矩阵存储单元、第一均值计算单元及平方根倒数计算单元的输出端均接至输出矩阵计算单元,第一均值计算单元的输出端接至第一平方计算单元。第一平方计算单元的输出端接至平方根倒数计算单元。第二平方计算单元的输出端接至第二均值计算单元。第二均值计算单元的输出端接至平方根倒数计算单元。通过硬件加速器执行层归一化处理,能够减小延时,提高Transformer神经网络的运算速度和效率。

Patent Agency Ranking