-
公开(公告)号:CN108647779B
公开(公告)日:2021-06-04
申请号:CN201810318783.6
申请日:2018-04-11
Applicant: 复旦大学
Abstract: 本发明公开了一种低位宽卷积神经网络可重构计算单元。该单元包括:若干个可重构移位累加模块、多路选通器和量化处理模块;可重构移位累加模块包括控制器、第一寄存器、第二寄存器、第三寄存器和移位累加器;本发明利用网络离散性构建控制器、第一寄存器、第二寄存器、第三寄存器和移位累加器,其通过控制器判断当前周期的定点数数据和指数权重是否为零值,一旦检测当前周期的定点数数据和指数权重为零,则根据第一寄存器发出的第一触发信号和第二寄存器发出的第二触发信号控制所述第三寄存器输出当前周期移位累加数据;本发明既能实现4比特和8比特的灵活定点乘累加运算,还能提高移位累加运算速率,降低运算占用的内存和功耗。
-
公开(公告)号:CN107644254A
公开(公告)日:2018-01-30
申请号:CN201710808978.4
申请日:2017-09-09
Applicant: 复旦大学
IPC: G06N3/08
Abstract: 本发明属于人工智能技术领域,具体为一种卷积神经网络权重参数量化训练方法及系统。本发明所述卷积神经网络包括卷积层、归一化层、缩放层、全连接层和池化层,该方法包括:根据所述归一化层的权重参数更新所述缩放层的;移除所述归一化层;采用指数量化方法对所述缩放层的权重参数进行量化;根据所述缩放层的权重参数的量化过程调节卷积层的权重参数;采用分组递归方法对所述卷积层的权重参数进行量化;根据所述缩放层的权重参数更新所述卷积层的权重参数;移除所述缩放层。采用本发明在不降低网络精度的同时,大幅降低网络计算复杂度、权重参数的存储容量和传输带宽,可获得无乘法器的硬件实现进而达到更快的计算加速。
-
公开(公告)号:CN108647779A
公开(公告)日:2018-10-12
申请号:CN201810318783.6
申请日:2018-04-11
Applicant: 复旦大学
Abstract: 本发明公开了一种低位宽卷积神经网络可重构计算单元。该单元包括:若干个可重构移位累加模块、多路选通器和量化处理模块;可重构移位累加模块包括控制器、第一寄存器、第二寄存器、第三寄存器和移位累加器;本发明利用网络离散性构建控制器、第一寄存器、第二寄存器、第三寄存器和移位累加器,其通过控制器判断当前周期的定点数数据和指数权重是否为零值,一旦检测当前周期的定点数数据和指数权重为零,则根据第一寄存器发出的第一触发信号和第二寄存器发出的第二触发信号控制所述第三寄存器输出当前周期移位累加数据;本发明既能实现4比特和8比特的灵活定点乘累加运算,还能提高移位累加运算速率,降低运算占用的内存和功耗。
-
公开(公告)号:CN108647773B
公开(公告)日:2021-07-23
申请号:CN201810358443.6
申请日:2018-04-20
Applicant: 复旦大学
IPC: G06N3/04
Abstract: 本发明属于图像处理算法的硬件设计技术领域,具体为一种可重构卷积神经网络的硬件互连架构。本发明的互连架构包括:数据和参数片外缓存模块,用于缓存输入的待处理图片中的像素数据和缓存进行卷积神经网络计算时输入的参数;基础计算单元阵列模块,用于实现卷积神经网络的核心计算;算术逻辑单元计算模块,用于处理所述基础计算单元阵列的计算结果,实现对下采样层、激活函数以及部分和累加。其中,基础计算单元阵列模块按照二维阵列的方式互连,在行方向上,共享输入数据,通过使用不同的参数数据实现并行计算;在列方向上,计算结果逐行传递,作为下一行的输入参与运算。本发明通过结构互连提升数据复用能力的同时,能够降低带宽的需求。
-
公开(公告)号:CN108647773A
公开(公告)日:2018-10-12
申请号:CN201810358443.6
申请日:2018-04-20
Applicant: 复旦大学
IPC: G06N3/04
Abstract: 本发明属于图像处理算法的硬件设计技术领域,具体为一种可重构卷积神经网络的硬件互连架构。本发明的互连架构包括:数据和参数片外缓存模块,用于缓存输入的待处理图片中的像素数据和缓存进行卷积神经网络计算时输入的参数;基础计算单元阵列模块,用于实现卷积神经网络的核心计算;算术逻辑单元计算模块,用于处理所述基础计算单元阵列的计算结果,实现对下采样层、激活函数以及部分和累加。其中,基础计算单元阵列模块按照二维阵列的方式互连,在行方向上,共享输入数据,通过使用不同的参数数据实现并行计算;在列方向上,计算结果逐行传递,作为下一行的输入参与运算。本发明通过结构互连提升数据复用能力的同时,能够降低带宽的需求。
-
-
-
-