-
公开(公告)号:CN114463161B
公开(公告)日:2022-09-13
申请号:CN202210377006.5
申请日:2022-04-12
Applicant: 之江实验室
Abstract: 本发明涉及忆阻器应用技术领域,尤其涉及一种基于忆阻器的神经网络处理连续图像的方法和装置,该方法包括以下步骤:步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列;步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量;步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。本发明加快了忆阻器上深度神经网络处理大量或者连续图像的效率。
-
公开(公告)号:CN114816335A
公开(公告)日:2022-07-29
申请号:CN202210738210.5
申请日:2022-06-28
Applicant: 之江实验室
IPC: G06F7/575
Abstract: 本发明公开了一种忆阻器阵列符号数乘法实现方法、装置及设备,装置包括忆阻器阵列和移位计算模块,忆阻器阵列的输入端和输出端分别与移位计算模块连接,方法包括步骤S1:确定带有符号的输入值,并将其转换为二进制补码形式;步骤S2:依据忆阻器阵列单次输入的位宽,将输入值拆分,其中最高位为符号位,从最低位开始依次输入到忆阻器阵列中进行乘法计算;步骤S3:忆阻器阵列单次输出值为最高位时做移位减法操作,其余位时均做移位加法操作;步骤S4:输出忆阻器阵列的最终乘法计算结果。本发明的忆阻器阵列符号数乘法实现方式,适用于神经网络计算,改善了部分场景下输入值仅为无符号数的限制,通用性强,几乎没有额外的硬件资源消耗。
-
公开(公告)号:CN114400031A
公开(公告)日:2022-04-26
申请号:CN202210292126.5
申请日:2022-03-24
Applicant: 之江实验室
Abstract: 本发明公开一种补码映射的RRAM存算一体芯片及电子设备,芯片包括控制选通模块、RRAM阵列模块、补码量化模块,所述控制选通模块接收输入信号,连接于RRAM阵列模块中的位线、源线、字线上,对RRAM阵列模块进行选通与读写控制;补码量化模块连接于RRAM阵列模块中的输出线上,数字输入信号通过控制选通模块经过位线BL输入到RRAM阵列模块,经过RRAM阵列模块与其以补码形式存储的权重值相乘加后,输出模拟信号至补码量化模块;补码量化模块将模拟信号以补码形式完成量化,输出数字信号结果。相比传统方式,本发明实现了2T1R RRAM阵列乘加运算的补码量化,可节省近一半RRAM阵列资源,减小芯片面积,降低功耗。
-
公开(公告)号:CN113870921A
公开(公告)日:2021-12-31
申请号:CN202111456209.5
申请日:2021-12-02
Applicant: 之江实验室
IPC: G11C13/00
Abstract: 本发明公开了一种忆阻器阵列上符号数映射方法,该映射方法将有符号数以补码的表达形式直接映射在忆阻器阵列上,并依据不同映射数的位宽以及忆阻器精度获得映射方案。首先,需要确认当前忆阻器类型器件为二值还是多值,如果是多值器件需再确认单元精度;然后,确定所映射符号数的位宽,并将符号数转为补码形式下的二进制数;最后,得出该符号数映射方案。本发明适用于神经网络计算,该方法映射符号数所占用忆阻器资源消耗小,通用性强,数值覆盖范围和实际表达范围一样。
-
公开(公告)号:CN119781993A
公开(公告)日:2025-04-08
申请号:CN202510280385.X
申请日:2025-03-11
Applicant: 之江实验室
Abstract: 本发明公开了一种基于动态域分解的存算一体架构模拟器加速方法,该方法基于动态域分解技术,特别适用于离散事件驱动类型的模拟环境。现有的体系结构模拟器会利用现代多核CPU的优势,通过域分解策略将模拟任务分割为多个相对独立的部分,以实现并行处理。然而,在存算一体架构中,由于计算核心数量庞大且各核心之间存在复杂的连接拓扑,传统的域分解方法难以有效应用,这极大地限制模拟效率。本发明提出的方法解决了上述问题,它利用编译器所提供的映射文件,并通过专门设计的算法对模拟模型实施动态域分解。这种方法能够根据模拟架构在执行不同任务时的具体需求,实时调整和优化域的划分,显著提高了存算一体架构模拟器的工作效率和模拟速度。
-
公开(公告)号:CN119107944B
公开(公告)日:2025-03-28
申请号:CN202411066409.3
申请日:2024-08-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音识别方法、装置、存储介质及电子设备。在本说明书提供的语音识别方法中,获取样本语音,以及所述样本语音对应的标注结果;将所述样本语音输入待训练的识别模型,得到所述识别模型输出的待优化识别结果,其中,所述识别模型至少包括阻变存储器特征学习层、全连接层、激活层、输出层;根据所述待优化识别结果与所述标注结果之间的差异,对所述识别模型进行训练;采用完成训练的所述识别模型识别目标语音。
-
公开(公告)号:CN119107944A
公开(公告)日:2024-12-10
申请号:CN202411066409.3
申请日:2024-08-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音识别方法、装置、存储介质及电子设备。在本说明书提供的语音识别方法中,获取样本语音,以及所述样本语音对应的标注结果;将所述样本语音输入待训练的识别模型,得到所述识别模型输出的待优化识别结果,其中,所述识别模型至少包括阻变存储器特征学习层、全连接层、激活层、输出层;根据所述待优化识别结果与所述标注结果之间的差异,对所述识别模型进行训练;采用完成训练的所述识别模型识别目标语音。
-
公开(公告)号:CN115905546A
公开(公告)日:2023-04-04
申请号:CN202310017218.7
申请日:2023-01-06
Applicant: 之江实验室
IPC: G06F16/35 , G06N3/0464 , G06N3/048 , G06N3/063 , G06N3/08
Abstract: 本发明公开了基于阻变存储器的图卷积网络文献识别装置与方法,对文献识别数据集进行训练集和测试集的构建;构建基于阻变存储器的浮点图卷积网络模型,用训练集进行预训练,得到预训练的模型参数;根据浮点图卷积网络模型,构建基于阻变存储器的训练阶段的图卷积网络量化模型;将训练集输入训练阶段的图卷积网络量化模型,进行量化感知训练,得到每层输出值的截断位宽、损失函数的权值,以及量化感知训练后的模型参数;根据训练阶段的图卷积网络量化模型,构建基于阻变存储器的推理阶段的图卷积网络量化模型;将量化感知训练后的模型参数映射到阻变存储器上,并将测试集输入到基于阻变存储器的推理阶段的图卷积网络量化模型,进行前向推理测试。
-
公开(公告)号:CN115827170A
公开(公告)日:2023-03-21
申请号:CN202310123062.0
申请日:2023-02-16
Applicant: 之江实验室
IPC: G06F9/455
Abstract: 本发明公开了基于离散事件的计算机体系结构的并行仿真方法及装置,将待仿真的计算机体系结构,按功能与延迟划分与组合成多个关键节点,并给每个关键节点分配一个线程;所有事件队列中的事件,按照事件发生的时间进行排序,时间相同的事件,按照优先级高低进行排序,整个仿真过程共同维护一条共享时间轴;利用前瞻量与路障事件对所有关键节点进行同步。在避免因果关系错误的条件下利用现代计算机的并行计算能力加速仿真过程。本发明将待仿真体系结构系统按功能与延迟划分与组合成多个关键节点,其中划分模块有利于提高仿真系统的并行度,合并低延迟模块有助于扩大前瞻量,降低同步开销,合理的关键节点选择能进一步加速仿真过程。
-
公开(公告)号:CN114332545B
公开(公告)日:2022-08-05
申请号:CN202210261211.5
申请日:2022-03-17
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04
Abstract: 本发明提供一种基于低比特脉冲神经网络的图像数据分类方法和装置,该方法包括:步骤一,获取开源图像数据集,分为训练集和测试集,其中数据集包括计算机图像数据和神经形态数据;步骤二,构建包含隐含层的脉冲神经网络模型,再改进LIF神经元,构建基于改进后的LIF神经元的脉冲神经网络模型;步骤三,通过构建训练损失函数并进行各项梯度求解,对脉冲神经网络模型进行训练;步骤四,在训练集上使用梯度下降参数更新方法进行脉冲神经网络模型优化训练;步骤五,利用构建并训练好的脉冲神经网络模型,对测试集进行识别,得到预测的数据分类标签,实现分类任务。本发明的方法具有更低的功耗,同时与全精度网络模型有近似的准确率。
-
-
-
-
-
-
-
-
-