-
公开(公告)号:CN112906874B
公开(公告)日:2024-08-23
申请号:CN202110367961.6
申请日:2021-04-06
Applicant: 南京大学
Abstract: 本申请公开了卷积神经网络特征图数据压缩方法及装置,该方法包括特征图通道重构阶段和零值比特图编码压缩阶段;特征图通道重构阶段中,使用一维离散余弦变换对特征图通道维进行重构,利用频域过滤器实现高频信息过滤,得到稀疏度高于原特征图的稀疏特征图,然后在零值比特图编码压缩阶段对稀疏特征图进行压缩,得到所述原特征图的最终压缩数据。上述方法利用卷积神经网络的通道冗余,实现将有一定频域特征的通道组重构到一起,提升待传输数据的稀疏度,进而提升了被压缩的潜力,随后使用零值比特图编码压缩对稀疏特征图压缩,提高了压缩率。
-
公开(公告)号:CN117010460A
公开(公告)日:2023-11-07
申请号:CN202310972001.1
申请日:2023-08-03
Applicant: 南京大学
Abstract: 本发明提供了一种Swin‑Transformer推理硬件加速器,包括外部存储、静态随机存取存储器SRAM和寄存器Reg构成的三层存储层次结构、两个量化单元、一个外积矩阵乘法阵列和三个非线性计算单元;本发明借助Swin Transformer独有的计算特性设计了应用在端侧的专用硬件加速架构,并在FPGA平台上进行了验证,该加速器的能效比NVIDIA RTX 2080Ti GPU提高了15.14倍,比现有的Transformer加速器提高了2.02到3.11倍。
-
公开(公告)号:CN116961836A
公开(公告)日:2023-10-27
申请号:CN202310971642.5
申请日:2023-08-03
Applicant: 南京大学
Abstract: 本发明提供了一种5G LDPC码译码方法与装置,所述译码方法为:首先对5GLDPC码的校验矩阵按照提升值进行分层,然后根据行层度数、首两列邻接数和二阶行层度数这三个指标确定优化的层更新顺序。在分层译码调度中,按照前述优化的层更新顺序进行译码,可以提升5G LDPC码的纠错性能、加快译码的收敛速度。所述译码装置即采用了前述优化的层更新顺序的译码装置,该译码装置包括了控制模块、内存模块和计算模块。控制模块内记录了前述优化的层更新顺序,用于控制译码装置按照优化的层更新顺序从内存模块中读取相应层的数据,并输送到计算模块进行译码。
-
公开(公告)号:CN113379034B
公开(公告)日:2023-10-20
申请号:CN202110661438.4
申请日:2021-06-15
Applicant: 南京大学
IPC: G06N3/0464 , G06N3/063 , G06N3/082
Abstract: 本申请公开了一种基于网络结构搜索技术的神经网络结构优化方法,包括以下步骤:获取训练样本,将所述训练样本输入初始神经网络,通过搜索算法根据所述训练样本,在所述初始神经网络上依次生成具有不同搜索状态的分支神经网络结构,得到若干个待优化神经网络结构,所述搜索状态包括插入分支的节点位置和对应节点位置的插入深度,对待优化神经网络结构进行优化,得到最优神经网络结构。通过搜索算法自动在初始神经网络结构上构建分支神经网络结构,对其进行优化后,得到最优神经网络分支结构,解决了现有神经网络构建过程中,通过动态计算的模型压缩算法对模型进行压缩,耗费大量人力物力,同时还存在神经网络陷入局部最优,严重影响效率的问题。
-
公开(公告)号:CN112131529B
公开(公告)日:2023-10-13
申请号:CN202010999435.7
申请日:2020-09-22
Applicant: 南京大学
Abstract: 本申请公开一种基于E‑G两步法的配对交易协整关系加速验证方法,包括:获取待验证协整关系的两个时间序列;对其残差及所述残差的差分进行增广迪基福勒检验,其中:利用LDLT分解法求解最大滞后阶数对应的回归分析结果;根据所述最大滞后阶数对应的回归分析结果,获取全部滞后阶数对应的回归分析结果,得到对应的误差平方和;利用优化的赤池信息量准则公式,计算所述全部滞后阶数对应的赤池信息量准则函数值;选取最小的所述赤池信息量准则函数值对应的滞后阶数为最优滞后阶数;得到所述最优滞后阶数对应的回归系数。本申请针对传统算法中的多次应用普通最小二乘法算法进行算法强度缩减和近似计算,提高两个时间序列协整关系的验证速度。
-
公开(公告)号:CN111313905B
公开(公告)日:2023-10-13
申请号:CN202010111088.X
申请日:2020-02-24
Applicant: 南京大学
IPC: H03M7/24
Abstract: 本发明公开了一种浮点数转换方法及装置,能够将基于IEEE 754规范的单精度浮点数转换为posit数据格式的浮点数,即第二浮点数。在很多神经网络的训练过程中,其运算数据近似服从正态分布,可通过变换使数据集中在0附近,而本发明中的posit数据格式的浮点数在神经网络训练过程中就可以在0附近保证精度,并且,本发明中posit数据格式的浮点数的预设总位宽是可以调控的,因此又可以很大程度的减少数据位宽,进而减少存储所需要的资源以及读写过程所消耗的资源,提高神经网络训练的效率。
-
公开(公告)号:CN116521765A
公开(公告)日:2023-08-01
申请号:CN202310122964.2
申请日:2023-02-15
Applicant: 南京大学
IPC: G06F16/248 , G06F16/22 , G06F16/242 , G06F16/2455 , G06F16/2458 , G06F16/35 , G06N3/02 , G06Q40/04
Abstract: 本申请提供一种基于新闻文本的预测信息显示系统及方法,包括:处理模块、神经网络模块、拐点运算模块以及显示模块;所述处理模块获取历史新闻文本;再通过所述神经网络模块调用已建立好的神经网络模型,以使所述神经网络模型提取所述历史新闻文本的事件信息、目标特征信息以及分类信息;根据所述事件信息、目标特征信息以及分类信息,通过所述拐点运算模块生成带有拐点标签的预测特征序列;基于所述预测特征序列与所述事件信息、目标特征信息以及分类信息建立可视化图表;根据所述可视化图表生成事件查找表,以及控制所述显示模块显示基于所述事件查找表渲染的查询界面以解决利用人工智能技术来分析新闻文本时预测结果显示异常的问题。
-
公开(公告)号:CN116128737B
公开(公告)日:2023-06-27
申请号:CN202310420888.3
申请日:2023-04-19
Applicant: 南京大学
IPC: G06T3/40 , G06T1/40 , H04N19/117 , H04N19/124 , H04N19/176 , H04N19/436 , H04N19/625 , H04N19/91 , H04N19/93
Abstract: 本发明提供了一种基于数据压缩的图像超分网络鲁棒性提升装置,包括压缩模块和解压缩模块;所述压缩模块包括特征图张量切块与重排模块、二维离散余弦变换模块、量化模块、随机掩膜滤波器模块、压缩编码模块;所述特征图张量切块与重排模块用于为空间二维分块,分块后的数据输入至同等尺寸的二维离散余弦变换模块做变换处理;所述二维离散余弦变换模块用于将数据从特征图空间转换到特征图频率空间;本发明利用特定压缩方案处理深度神经网络传输的特征图,在图像超分网络上可提高其鲁棒性。实现神经网络在端侧设备部署时,在提升模型安全性能同时,缓解特征图传输带来的带宽压力,降低传输功耗。
-
公开(公告)号:CN116167419A
公开(公告)日:2023-05-26
申请号:CN202111386001.0
申请日:2021-11-22
Applicant: 南京大学
Abstract: 本申请涉及人工智能算法硬件加速技术领域,提供一种兼容N:M稀疏的Transformer加速器的架构及加速方法,Transformer加速器的架构包括控制单元、储存单元和计算单元;计算单元包括多模兼容矩阵乘法计算模块、矢量计算模块、重排模块、Softmax计算模块。在实际应用中,多模兼容矩阵乘法计算模块负责Transformer模型中运算量密集的矩阵乘法的计算,根据控制信号动态配置,执行两个稠密矩阵的矩阵乘法计算,或者执行单个N:M结构化稀疏矩阵与单个稠密矩阵的矩阵乘法计算;Softmax计算模块负责计算Transformer模型中的Softmax算子,矢量计算模块用于累加多模兼容矩阵乘法计算模块的运算结果,并将累加的运算结果发送至重排模块;重排模块用于对累加的运算结果进行重排,并存储至中间数据存储器或激活存储器。
-
公开(公告)号:CN111367497B
公开(公告)日:2023-03-14
申请号:CN202010138192.8
申请日:2020-03-03
Applicant: 南京大学
Abstract: 本申请提供了一种基于posit数据格式的浮点数乘法运算方法及装置。所述方法包括:获取第一浮点数和第二浮点数之后,分别对第一浮点数和第二浮点数进行分析,根据分析后得到的值,确定目标浮点数。采用posit数据格式进行乘法运算,则可以在0附近保证精度的同时,又可以很大程度的减少数据位宽,从而减少神经网络的训练时间,也降低了对于存储,位宽等资源的需求。
-
-
-
-
-
-
-
-
-