-
公开(公告)号:CN114638703A
公开(公告)日:2022-06-17
申请号:CN202210348393.X
申请日:2022-04-01
Applicant: 南京大学
Abstract: 本申请涉及金融风险管理技术领域,提供一种基于灰色混合模型的金融时间序列短期预测方法,该预测方法针对传统灰色模型进行改进,通过采用离散小波变换对原数据序列进行处理,有效去除高频的细小波动,从而提高模型对数据的预测精度,进而使得金融时间序列预测效果更佳;通过将历史数据结合不同长度择优设置一个滑动窗口来限制数据序列长度,已解决过多的历史数据中存在大量无用信息,过少的数据不足以预测这一难题;还通过将预处理后的原数据经过灰色模型预测之后,根据发展系数对预测结果进行移动加权平均计算,从而避免不可预料的趋势变化带来巨大误差,进而使得最终结果比灰色模型的预测结果具有更高精度。
-
公开(公告)号:CN114118344A
公开(公告)日:2022-03-01
申请号:CN202010900182.3
申请日:2020-08-31
Applicant: 南京大学
Abstract: 本申请公开了应用于Transformer神经网络的硬件加速器及其计算方法,该硬件加速器包括:数据存储模块、脉动阵列模块、偏置相加模块、点积注意力函数运算模块、激活函数运算模块、残差相加模块、层归一化函数运算模块及控制模块。脉动阵列模块包括多个用于执行矩阵计算的基本运算单元,控制模块用于控制硬件加速器的计算流程。基于能够执行Transformer神经网络中所有矩阵计算的脉动阵列模块,上述硬件加速器可有效提高Transformer神经网络的运算速度及效率。
-
公开(公告)号:CN114118343A
公开(公告)日:2022-03-01
申请号:CN202010898001.8
申请日:2020-08-31
Applicant: 南京大学
Abstract: 本申请公开了应用于Transformer神经网络的层归一化处理硬件加速器及方法,该硬件加速器包括中间矩阵存储单元、第一均值计算单元、第二均值计算单元、第一平方计算单元、第二平方计算单元、平方根倒数计算单元及输出矩阵计算单元。中间矩阵存储单元、第一均值计算单元及平方根倒数计算单元的输出端均接至输出矩阵计算单元,第一均值计算单元的输出端接至第一平方计算单元。第一平方计算单元的输出端接至平方根倒数计算单元。第二平方计算单元的输出端接至第二均值计算单元。第二均值计算单元的输出端接至平方根倒数计算单元。通过硬件加速器执行层归一化处理,能够减小延时,提高Transformer神经网络的运算速度和效率。
-
公开(公告)号:CN112131529A
公开(公告)日:2020-12-25
申请号:CN202010999435.7
申请日:2020-09-22
Applicant: 南京大学
Abstract: 本申请公开一种基于E‑G两步法的配对交易协整关系加速验证方法,包括:获取待验证协整关系的两个时间序列;对其残差及所述残差的差分进行增广迪基福勒检验,其中:利用LDLT分解法求解最大滞后阶数对应的回归分析结果;根据所述最大滞后阶数对应的回归分析结果,获取全部滞后阶数对应的回归分析结果,得到对应的误差平方和;利用优化的赤池信息量准则公式,计算所述全部滞后阶数对应的赤池信息量准则函数值;选取最小的所述赤池信息量准则函数值对应的滞后阶数为最优滞后阶数;得到所述最优滞后阶数对应的回归系数。本申请针对传统算法中的多次应用普通最小二乘法算法进行算法强度缩减和近似计算,提高两个时间序列协整关系的验证速度。
-
公开(公告)号:CN112131529B
公开(公告)日:2023-10-13
申请号:CN202010999435.7
申请日:2020-09-22
Applicant: 南京大学
Abstract: 本申请公开一种基于E‑G两步法的配对交易协整关系加速验证方法,包括:获取待验证协整关系的两个时间序列;对其残差及所述残差的差分进行增广迪基福勒检验,其中:利用LDLT分解法求解最大滞后阶数对应的回归分析结果;根据所述最大滞后阶数对应的回归分析结果,获取全部滞后阶数对应的回归分析结果,得到对应的误差平方和;利用优化的赤池信息量准则公式,计算所述全部滞后阶数对应的赤池信息量准则函数值;选取最小的所述赤池信息量准则函数值对应的滞后阶数为最优滞后阶数;得到所述最优滞后阶数对应的回归系数。本申请针对传统算法中的多次应用普通最小二乘法算法进行算法强度缩减和近似计算,提高两个时间序列协整关系的验证速度。
-
公开(公告)号:CN116521765A
公开(公告)日:2023-08-01
申请号:CN202310122964.2
申请日:2023-02-15
Applicant: 南京大学
IPC: G06F16/248 , G06F16/22 , G06F16/242 , G06F16/2455 , G06F16/2458 , G06F16/35 , G06N3/02 , G06Q40/04
Abstract: 本申请提供一种基于新闻文本的预测信息显示系统及方法,包括:处理模块、神经网络模块、拐点运算模块以及显示模块;所述处理模块获取历史新闻文本;再通过所述神经网络模块调用已建立好的神经网络模型,以使所述神经网络模型提取所述历史新闻文本的事件信息、目标特征信息以及分类信息;根据所述事件信息、目标特征信息以及分类信息,通过所述拐点运算模块生成带有拐点标签的预测特征序列;基于所述预测特征序列与所述事件信息、目标特征信息以及分类信息建立可视化图表;根据所述可视化图表生成事件查找表,以及控制所述显示模块显示基于所述事件查找表渲染的查询界面以解决利用人工智能技术来分析新闻文本时预测结果显示异常的问题。
-
公开(公告)号:CN115270817A
公开(公告)日:2022-11-01
申请号:CN202210898773.0
申请日:2022-07-28
Applicant: 南京大学
Abstract: 本申请涉及自然语言处理技术领域,提供一种对话文本处理方法及装置,通过将对话文本中的说话者和话语按时间顺序拼接,得到时间流,聚合不同说话者在所述对话文本中的全部话语,得到说话者流,将得到的时间流和说话者流作为双流输入,以充分利用对话信息。时间流和说话者流是人类理解对话的两个方向,时间流有助于理解对话的发展,而说话者流则按说话者聚合话语,有利于理解不同说话者的信息,同时因为减少说话者的切换,可降低模型理解出错的概率,从而提高模型的忠实度。此外,本申请的说话者流是自动生成的,不需要任何其他资源消耗,例如额外模型预测和人工注释等,这使得本申请可以被低成本地、便捷地应用。
-
公开(公告)号:CN108021537B
公开(公告)日:2022-09-16
申请号:CN201810016954.X
申请日:2018-01-05
Applicant: 南京大学
IPC: G06F17/15
Abstract: 本发明公开了一种基于各种硬件平台(CPLD、FPGA、专用芯片等)的softmax函数计算方法。softmax函数广泛应用于深度学习的多分类任务及注意力模型等,其中涉及到的e指数及除法计算需要消耗较大的硬件资源。设计方法通过对函数进行简单变换,将其中的e指数计算简化为一次常数乘法、一个输入范围固定的2的指数次运算、一次移位运算;将n次除法运算的简化为一次“最高位1检测运算”,一次输入范围固定的倒数运算,一次移位运算及n次乘法运算。其中2指数及倒数运算以特殊设计的查找表实现,使得更小的存储空间可实现同样精度。将本发明用在深度学习注意力模型等中,可以在精度几乎不受损的前提下大大提高计算速度,减少计算资源的消耗。
-
公开(公告)号:CN115455979A
公开(公告)日:2022-12-09
申请号:CN202211165132.0
申请日:2022-09-23
Applicant: 南京大学
IPC: G06F40/30 , G06F40/289 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本申请涉及自然语言处理技术领域,提供一种基于Transformer网络的文本处理方法及系统,在当前次编码计算后,更新一个数据批内每条输入文本的已编码次数,并分别判断每条输入文本是否可以提前退出,以及,分别判断每条输入文本的已编码次数是否达到预设的最大计算层数,如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本,对数据批内的各输入条文本进行下一次编码计算,其中,每次编码计算均采用相同参数的编码器。基于编码器参数的复用,以及对输入文本的循环填充,使得GPU上模型同时处理的文本数量恒定在数据批大小,有效兼容提前退出机制和数据批大小大于1。
-
公开(公告)号:CN117011068A
公开(公告)日:2023-11-07
申请号:CN202310971757.4
申请日:2023-08-03
Applicant: 南京大学
Abstract: 本发明提供了一种基于文本分析的可解释的金融数据可视化分析方法,包括:步骤1,采集股价文本数据并进行预处理,然后标注拐点;步骤2,对股价文本数据进行预测;步骤3,采用可视化方法输出预测结果。本方法提供了两种拐点定义,除了一种被广泛使用的定义,本方法还提出了一种新的拐点定义以捕捉短期价格波动。除此之外,可视化的界面也直观的展示了本发明方法的逻辑,大大增强了可解释性。本方法简单有效且易于推广,本方法中的各个模块可以被更换或优化,以满足不同的场景需求。
-
-
-
-
-
-
-
-
-