-
公开(公告)号:CN111340207B
公开(公告)日:2023-12-15
申请号:CN202010138180.5
申请日:2020-03-03
Applicant: 南京大学
Abstract: 本申请提供了一种浮点数的转换方法及装置。所述方法包括:对第一浮点数进行分析,确定第一浮点数中第一符号段的值、组织段的值、第一指数段的值和第一尾数段的值,据此分别确定第二符号段的值、第二指数段的值和第二尾数段的值,再将第二符号段的值、第二指数段的值和第二尾数段的值,以二进制码的形式组合成IEEE 754数据格式的第二浮点数。如此,能够实现将posit数据格式的浮点数转换为IEEE 754数据格式的浮点数。
-
公开(公告)号:CN111291323B
公开(公告)日:2023-12-12
申请号:CN202010095448.1
申请日:2020-02-17
Applicant: 南京大学
Abstract: 本申请公开了一种基于脉动阵列的矩阵乘法处理器及其数据处理方法,该矩阵乘法处理器包括由多个基本运算单元排布而成脉动阵列,多个权重输入通道以及数据输入通道,脉动阵列中每一列的任意两个相邻基本运算单元之间通过D触发器相连,D触发器用于根据时钟信号进行数据的的存储及传递,权重输入通道以及数据输入通道分别用于按照时钟信号,将权重数据输入至对应行中的每一个基本运算单元以及将激活数据输入至脉动阵列中每一列底端基本运算单元的数据输入接口。当权重数据和激活数据在时钟信号的控制下广播时,无需额外的控制信号,D触发器便可同时进行数据的存储以及传递,有效减少控制信号的数量,降低矩阵乘法处理器的布线复杂度。
-
公开(公告)号:CN116933850A
公开(公告)日:2023-10-24
申请号:CN202210345931.X
申请日:2022-03-31
Applicant: 南京大学
IPC: G06N3/063 , G06N3/0464 , G06F9/38 , G06F5/10
Abstract: 本申请提供一种可参数化生成并动态可配置的神经网络硬件加速结构,包括控制分发模块从控制核接收控制信息,从片外存储读取指令数据至多个指令队列;加载存储模块从片外存储加载计算输入至片上存储模块,将计算结果传输至片外存储;片上存储模块负责暂存数据;张量计算模块从片上存储模块读取数据并完成张量计算,将计算结果存储至片上存储模块;矢量计算模块从片上存储模块读取数据并完成矢量计算,将计算结果存储至片上存储模块。该硬件加速结构通过参数化生成匹配不同的硬件约束,对硬件资源合理分配,通过动态配置支持不同的神经网络计算任务,优化计算与数据访存的配合,实现对于神经网络计算的高效加速,并支持多种计算功能。
-
公开(公告)号:CN115908844A
公开(公告)日:2023-04-04
申请号:CN202211394271.0
申请日:2022-11-08
Applicant: 南京大学
IPC: G06V10/44 , G06N3/0464 , G06V10/82 , G06N3/063 , G06N3/082
Abstract: 本申请公开了一种神经网络处理单元的特征图处理方法和装置,该装置用于执行该方法,该方法包括特征图压缩过程和特征图还原过程,特征图压缩过程包括获取特征图切块、线性正交变换、定点量化和压缩编码处理步骤,从而获取待处理的特征图的压缩数据,压缩数据存入内存单元中,这样计算机系统便于直接与内存单元中压缩数据进行传输交互,有利于减少数据处理量,降低硬件能耗。当压缩数据被计算机系统调取使用完成后,需要将特征图还原,得到还原数据,此过程为上述方法的特征图还原过程,特征图还原过程包括压缩解码处理、定点量化的逆变换、线性正交变换的逆变换、特征图切块还原,从而获取特征图的原始数据,便于进行其他运算。
-
公开(公告)号:CN115700605A
公开(公告)日:2023-02-07
申请号:CN202110874007.6
申请日:2021-07-30
Applicant: 南京大学
IPC: G06N3/082 , G06N3/0464 , G06N3/063
Abstract: 本申请提供一种应用于卷积神经网络训练的可重构硬件加速器。该可重构硬件加速器包括:缓存架构、运算处理阵列、功能模块和主控制器,缓存架构包括输入缓存架构和输出缓存架构,运算处理阵列包括多个以二维数组方式排列的运算处理模块,在使用时利用输入缓存架构按预设数据分组方式对待运算数据进行重新排列和分组后,发送给运算处理模块进行处理,并通过在不同的训练阶段动态调整运算处理阵列中的每个运算处理模块的内部数据连接方式,以使运算处理模块按移动步长进行与候选训练阶段相对应的卷积运算处理。整个装置的计算方式较为灵活,可并行处理多通道运算,而且仅采用硬件架构即可满足不同训练阶段的计算需求,因而具有较高的模型训练效率。
-
公开(公告)号:CN115455979A
公开(公告)日:2022-12-09
申请号:CN202211165132.0
申请日:2022-09-23
Applicant: 南京大学
IPC: G06F40/30 , G06F40/289 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本申请涉及自然语言处理技术领域,提供一种基于Transformer网络的文本处理方法及系统,在当前次编码计算后,更新一个数据批内每条输入文本的已编码次数,并分别判断每条输入文本是否可以提前退出,以及,分别判断每条输入文本的已编码次数是否达到预设的最大计算层数,如果存在输入文本可以提前退出或已编码次数达到预设的最大计算层数,则用待处理文本更新对应的输入文本,对数据批内的各输入条文本进行下一次编码计算,其中,每次编码计算均采用相同参数的编码器。基于编码器参数的复用,以及对输入文本的循环填充,使得GPU上模型同时处理的文本数量恒定在数据批大小,有效兼容提前退出机制和数据批大小大于1。
-
公开(公告)号:CN112838870A
公开(公告)日:2021-05-25
申请号:CN201911161917.9
申请日:2019-11-22
Applicant: 南京大学
IPC: H03M13/11
Abstract: 本发明公开了一种高性能低复杂度的基于可靠性的多进制LDPC译码方法。该方法主要包括两个创新点:(一)针对导致译码失败的主要原因:周期点问题,以一定的周期间隔将一种微小加性扰动注入译码过程,有效地解决了周期点问题,从而极大地提升了译码性能;(二)针对多进制LDPC译码需要存储大量信道信息的问题,提出一种实时计算信道信息的方法,有效地减少了存储复杂度且不造成性能损失。本发明提出一种有效的译码方法,以较低的计算以及存储复杂度实现了更好的译码性能,具有一定的创新性。
-
公开(公告)号:CN112650974A
公开(公告)日:2021-04-13
申请号:CN202011617770.2
申请日:2020-12-30
Applicant: 南京大学
Abstract: 本申请公开了一种高效的转置卷积计算方法,基于预设的转置卷积核的尺寸参数、转置卷积的步长和转换阶数确定转置卷积总体架构,对用于原特征图的提取的滑动窗口进行了设计,根据设计后的滑动窗口提取特征图子图,对所述特征图子图进行转换,转换转置卷积核,并进行计算,对中间子矩阵进行转换,进而获得转置卷积结果。本申请实现在不需要补零的操作下,对原特征图进行转置卷积运算,提高运算效率;提出转换阶数的设置,扩大适用范围,进一步降低计算复杂度。
-
公开(公告)号:CN112118013A
公开(公告)日:2020-12-22
申请号:CN201910546357.2
申请日:2019-06-20
Applicant: 南京大学
IPC: H03M13/11
Abstract: 本发明公开了一种适用于多进制LDPC码的高性能、低复杂度的迭代大数逻辑译码方法。该方法主要包括三个创新点:(一)提出两个减少实现复杂度的改进方法,在计算先验可靠性度量值时把寻找两个最小值的操作简化为寻找一个最小值操作,由此把所需的比较操作降低一半且几乎不造成性能损失;其次,在计算总的可靠性度量值时将大量的整数乘法转化为极少数量的除法,大大减少乘法操作的同时也降低了可靠性度量值的比特位宽;(二)提出一种不饱和限幅的方法,通过提升其他域元素的竞争力,极大地提升了译码性能并进一步降低可靠性度量值的比特位宽;(三)针对多进制LDPC译码存储消耗巨大的问题,提出了一种部分固定的存储方法,极大地减少了对应的存储消耗。本发明提出一种有效的译码方法,在提升译码性能的同时降低了实现复杂度,具有一定的创新性。
-
公开(公告)号:CN111654353A
公开(公告)日:2020-09-11
申请号:CN201910162244.2
申请日:2019-03-04
Applicant: 南京大学
IPC: H04L1/00
Abstract: 随着400G以太网的技术日趋成熟,下一代以太网的研究工作也陆续开展起来,前向纠错码(FEC)方案的选取仍然是下一代以太网研究中的一个重要课题。下一代以太网仍然有望采用至少4路光纤的方案实现,为达到高于800Gbps的总吞吐率,FEC解码器需要在满足编码增益的条件下达到200Gbps甚至更高的吞吐率。在保证高吞吐率的同时,尽可能减少解码器的功耗。本发明公开了一种面向下一代以太网的FEC方案及其解码器的硬件架构。我们采用Hamming码作为外码和RS码作为内码的级联码方案,外码采用软解码,内码采用硬解码。此外,我们还设计了该级联码解码器的硬件架构,经过硬件综合和分析,该解码器可以达到200Gbps的吞吐率。
-
-
-
-
-
-
-
-
-