-
公开(公告)号:CN118446247A
公开(公告)日:2024-08-06
申请号:CN202410588405.5
申请日:2024-05-13
Applicant: 重庆邮电大学
IPC: G06N3/0442 , G06N5/04 , G06N3/084 , G06N3/045 , G06V10/82
Abstract: 本发明涉及一种面向多模态数据处理的轻量化LSTM模型构建方法及系统,属于循环神经网络领域。该系统包括图片预处理模块、语音预处理模块、文本预处理模块、轻量化长短时记忆循环神经网络模块,图片、语音和文本预处理模块实现将原始数据处理为长短时记忆循环神经网络模型的输入数据,然后进行模型训练,对训练后的神经网络模型进行轻量化操作,以减少数据量,便于边缘硬件端部署;在边缘硬件端部署本发明提出的神经网络进行推理,面对不同模态的数据,只需要重载其权重参数,不需要重新设计硬件架构,拓宽了边缘硬件端部署神经网络模型的应用范围。
-
公开(公告)号:CN118114733A
公开(公告)日:2024-05-31
申请号:CN202410271960.5
申请日:2024-03-11
Applicant: 重庆邮电大学
IPC: G06N3/08 , G06N3/063 , G06N3/0442 , G06N3/049
Abstract: 本发明涉及一种基于脉动阵列的LSTM前向传播加速方法,属于神经网络加速技术领域。在传统二维脉动阵列结构中,输入矩阵X的每一行与权重矩阵W的每一列都要进行相乘再累加的操作,实现数据的高度复用。但循环神经网络中存在大量的大规模矩阵向量乘运算,无法利用高数据复用率的传统脉动阵列结构进行运算和加速,因此,本发明引入了一种基于脉动阵列的前向传播加速方法,充分了利用硬件资源,结合脉动阵列结构,减小了计算所需带宽和访存次数,并优化了脉动阵列中各个PE的计算时间,从而缩短整体的硬件工作时间,最大化利用脉动阵列实现LSTM的加速效果。
-
公开(公告)号:CN117542350A
公开(公告)日:2024-02-09
申请号:CN202311706415.6
申请日:2023-12-12
Applicant: 重庆邮电大学
IPC: G10L15/06 , G10L15/16 , G06N3/0442 , G06N3/0495 , G06N3/082 , G06N3/048
Abstract: 本发明涉及一种基于改进LSTM的语音识别模型剪枝方法,属于语音数据处理领域。S1:初始化基于改进LSTM的语音识别模型;S2:对语音识别模型进行训练;S3:将训练好的参数进行Top‑k剪枝。本发明的方法引入了一种面向硬件的压缩算法,该算法包括结构化的Top‑k剪枝、无乘法量化,在确保精度的情况下可以大大减少语音识别的模型大小。
-
公开(公告)号:CN118886465A
公开(公告)日:2024-11-01
申请号:CN202410997080.6
申请日:2024-07-24
Applicant: 重庆邮电大学
IPC: G06N3/063 , G06N3/0442
Abstract: 本发明涉及一种基于分布式计算脉动阵列的轻量化LSTM硬件加速器及加速方法,属于循环神经网络加速器领域。该加速器包括控制模块、重构模块、激活模块和多个脉动阵列,控制模块负责全局调配,尤其是实现在脉动阵列中将权重数据与输入数据耦合相乘;重构模块通过将输入的单个数据缓存并维度重构,使其符合脉动阵列的输入维度;脉动阵列负责实现4个门和全连接层的运算,其中通过脉动的方式传递并计算数据,以减少计算单元的空置率并提高计算效率;本发明在对LSTM网络进行训练时,采用分层分模块轻量化重训练,在使权重参数规模减少的同时保持准确率,本发明提出的LSTM加速器相对于通用处理器具有高能效、高算力的特点。
-
-
-