-
公开(公告)号:CN111967468A
公开(公告)日:2020-11-20
申请号:CN202010794303.0
申请日:2020-08-10
Applicant: 东南大学
Abstract: 本发明公开了一种基于FPGA的轻量级目标检测神经网络的实现方法,网络包括若干卷积层、若干池化层、边框回归输出层。基本流程步骤为:构建轻量级深度卷积神经网络;初始化轻量级深度卷积神经网络;训练轻量级深度卷积神经网络;设计现场可编辑逻辑门阵列FPGA中轻量级卷积神经网络的基本组成器件;在FPGA上实现已训练好的轻量级卷积神经网络;进行实物测试。本发明在保证深度卷积神经网络预测结果准确度的前提下,精简了深度卷积神经网络结构,优化了网络训练方法,优化了硬件计算单元,提高了在FPGA中实现深度卷积神经网络的资源利用率和运行效果。
-
公开(公告)号:CN109886391A
公开(公告)日:2019-06-14
申请号:CN201910089080.5
申请日:2019-01-30
Applicant: 东南大学
Abstract: 本发明公开了一种基于空间正反对角卷积的神经网络压缩方法,对许多场景而言,卷积神经网络是目前计算机视觉和数字图像处理解决方案的核心,但卷积神经网络的计算复杂度和参数数量仍然是各种应用场景的限制因素。为了提高卷积神经网络的计算效率,减少网络的参数个数,本发明在空间上,将一对连续的传统方形卷积核替换为正反对角卷积核,先进行正对角卷积操作,然后经过批归一化和非线性函数激活处理后,再进行反对角卷积操作,在保留了更有效的局部感受中心的前提下进一步降低了卷积神经网络的计算复杂度,加快了网络传播速度,同时对角卷积具有一定的正则化效果,提高了网络的鲁棒性,降低了模型的过拟合,网络压缩后的整体效果提升明显。
-
公开(公告)号:CN109376859A
公开(公告)日:2019-02-22
申请号:CN201811128219.4
申请日:2018-09-27
Applicant: 东南大学
Abstract: 本发明公开了一种基于菱形卷积的神经网络剪枝方法,包括如下步骤:(1)卷积神经网络输入层及卷积层增加空白行列像素;(2)卷积操作采用奇数菱形卷积核取代方形卷积核,池化操作采用方形卷积核,前向计算神经网络输出;(3)采用反向传播算法训练含有菱形卷积核的卷积神经网络,求出每个神经元的梯度,得到新的权重。本发明提出了基于菱形卷积的神经网络,用菱形卷积核取代了传统的方形卷积核,采用一范数约束卷积窗口,保留了更有效的局部感受中心,保证了网络的稀疏性,进一步解决了神经网络参数复杂度过高的问题,加快了传播速度,同时菱形卷积核有正则化作用,防止了模型过拟合,整体训练速度加快,具有更高的准确率。
-
公开(公告)号:CN110782001B
公开(公告)日:2024-04-09
申请号:CN201910858423.X
申请日:2019-09-11
Applicant: 东南大学
IPC: G06N3/0464 , G06N3/063
Abstract: 本发明公开了一种基于组卷积神经网络使用共享卷积核的改进方法,在一般的分组卷积中每个组都占用了与其他组不同的卷积核,这对硬件实现上带来许多不变。针对这个问题,提出了共享卷积核组卷积(KSGC)的概念,即将输入的通道平均分成多个组,并且对每个组分别进行卷积操作,特别之处在于,这个输入通道中的所有组都使用的是同一个卷积核进行卷积,在此基础上,还将组与组之间有信息交流的组卷积的卷积核改为共享的进行测试。这种共享卷积核组网络,使用了更少的参数,提高了卷积神经网络的计算效率,进一步解决了神经网络参数复杂度过高的问题,在硬件上也减少了逻辑资源消耗。
-
公开(公告)号:CN114395040B
公开(公告)日:2023-12-15
申请号:CN202210122652.7
申请日:2022-02-09
Applicant: 东南大学附属中大医院
IPC: C07K16/18 , C12N15/13 , G01N33/577 , G01N33/68
Abstract: 本发明涉及再生蛋白REG1A单克隆抗体及其应用。该抗体包括重链和轻链,至少具有以下技术特征之一:i、重链包括重链CDR1,序列为VKQSH;ii、重链包括重链CDR2,序列为GGNVYNQKFKIKATLT;iii、重链包括重链CDR3,序列为PGTGYFDV;iv、轻链包括轻链CDR1,序列为RASQDISNYLN;v、轻链包括轻链CDR2,序列为YTSRLHS;vi、轻链包括轻链CDR3,序列为QQGHTLPRT。本发明的再生蛋白REG1A单克隆抗体能够有效检测再生蛋白REG1A水平,从而可以用以辅助诊断和治疗,以及预测疾病的发生和发展。
-
公开(公告)号:CN110782001A
公开(公告)日:2020-02-11
申请号:CN201910858423.X
申请日:2019-09-11
Applicant: 东南大学
Abstract: 本发明公开了一种基于组卷积神经网络使用共享卷积核的改进方法,在一般的分组卷积中每个组都占用了与其他组不同的卷积核,这对硬件实现上带来许多不变。针对这个问题,提出了共享卷积核组卷积(KSGC)的概念,即将输入的通道平均分成多个组,并且对每个组分别进行卷积操作,特别之处在于,这个输入通道中的所有组都使用的是同一个卷积核进行卷积,在此基础上,还将组与组之间有信息交流的组卷积的卷积核改为共享的进行测试。这种共享卷积核组网络,使用了更少的参数,提高了卷积神经网络的计算效率,进一步解决了神经网络参数复杂度过高的问题,在硬件上也减少了逻辑资源消耗。
-
公开(公告)号:CN110781912A
公开(公告)日:2020-02-11
申请号:CN201910852719.0
申请日:2019-09-10
Applicant: 东南大学
Abstract: 本发明公开了一种基于通道扩张倒置卷积神经网络的图像分类方法,包括(1)将大规模图像数据集生成训练图像集和测试图像集;(2)对训练图像集中的图像进行标准卷积操作,输出特征图像;(3)采用DPDNet卷积倒置块对步骤(2)输出的特征图像进行卷积操作;(4)对步骤(3)输出的特征图像经过全局平均池化层,得到1×1的输出特征图像;(5)将步骤(4)得到的尺寸为1×1的输出特征图像通过全连接层,最后接入一个归一化指数函数层完成对训练图像的分类,即得到DPDNet卷积神经网络模型。将测试图像集中的图像输入至经过步骤(2)-(5)后得到的DPDNet卷积神经网络模型中,完成图像分类。本发明测试结果明显提高。
-
公开(公告)号:CN110728354A
公开(公告)日:2020-01-24
申请号:CN201910858428.2
申请日:2019-09-11
Applicant: 东南大学
IPC: G06N3/04
Abstract: 本发明公开了一种改进的滑动式分组卷积神经网络,在总通道里取第一个通道到第G个通道为第一组输入进行卷积,经过卷积操作后输出S个通道,接着,以第一组输入长度G在总通道上进行滑动,S作为滑动的步长,第二组卷积的输入为总通道数的第S+1个通道到第S+G,总共仍是G个通道作为一组输入进行卷积操作,并输出S个通道,以此类推;特别之处在于,后一组输入通道的前G-S个通道与前一组输入通道的后G-S个通道是共享的,每组之间都按照这种关系来进行信息交流。本发明进一步解决了神经网络参数复杂度过高的问题,且测试准确度有所提高。本发明是一种结合全精度高效神经网络的算法硬件协同压缩方法,并且降低了硬件资源消耗。
-
公开(公告)号:CN110728352A
公开(公告)日:2020-01-24
申请号:CN201910851853.9
申请日:2019-09-10
Applicant: 东南大学
Abstract: 本发明公开了一种基于深度卷积神经网络的大规模图像分类方法,包括将大规模图像数据集分为训练图像集和测试图像集;使用标准卷积操作对训练图像集进行卷积操作,得到标准卷积后的图像;对得到的标准卷积后的图像采用PSD卷积进行操作,得到PSD卷积后的图像;将得到的PSD卷积后的图像经过全局平均池化层,得到1×1的输出特征图像;将得到的1×1的输出特征图像通过全连接层,最后接入一个归一化指数函数层完成对训练图像的分类,即得到PSDNet卷积神经网络模型。将测试图像集中的图像输入得到的PSDNet卷积神经网络模型中,完成图像分类。本发明测试结果有明显的提高。
-
公开(公告)号:CN112836757B
公开(公告)日:2025-02-28
申请号:CN202110177124.7
申请日:2021-02-09
Applicant: 东南大学
IPC: G06N3/0464 , G06N3/084 , G06N5/04 , G06F18/23213
Abstract: 本发明公开了一种深度学习网络卷积核内部参数共享方法,包括:(1)对网络进行预训练;(2)对(1)的网络各层的卷积输入通道使用Kmeans聚类函数进行聚类;(3)对(2)中具有属于一类的输入通道共享一个二维矩阵参数;(4)对网络进行再训练提升预测结果。经测试本发明在对精度基本无影响的前提下可使得卷积神经网络的参数与计算量减少超过40%,加快了神经网络的推理速度,并且在低的共享率下,甚至可以提高网络的测试集推理准确度,使其准确度超越在同样的训练集、同样的训练批次下未经本方法优化的原始神经网络。
-
-
-
-
-
-
-
-
-