-
公开(公告)号:CN119107944B
公开(公告)日:2025-03-28
申请号:CN202411066409.3
申请日:2024-08-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音识别方法、装置、存储介质及电子设备。在本说明书提供的语音识别方法中,获取样本语音,以及所述样本语音对应的标注结果;将所述样本语音输入待训练的识别模型,得到所述识别模型输出的待优化识别结果,其中,所述识别模型至少包括阻变存储器特征学习层、全连接层、激活层、输出层;根据所述待优化识别结果与所述标注结果之间的差异,对所述识别模型进行训练;采用完成训练的所述识别模型识别目标语音。
-
公开(公告)号:CN118647256B
公开(公告)日:2024-12-24
申请号:CN202411110209.3
申请日:2024-08-14
Applicant: 之江实验室
Abstract: 本发明公开了一种电流极性可调的铁酸铋光电器件及调控方法,该铁酸铋光电器件是通过改变入射激光的波长,调控铁酸铋薄膜样品的面外畴结构,调控光生载流子的分离和迁移特性,实现对铁酸铋光电器件光电流方向的调控。其方法引入了调控光电流极性新的物理手段,引入了调控光电流极性新的物理机制;且读取光电流的测试过程中,无需任何外加电压,实现了低功耗。
-
公开(公告)号:CN119107944A
公开(公告)日:2024-12-10
申请号:CN202411066409.3
申请日:2024-08-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种语音识别方法、装置、存储介质及电子设备。在本说明书提供的语音识别方法中,获取样本语音,以及所述样本语音对应的标注结果;将所述样本语音输入待训练的识别模型,得到所述识别模型输出的待优化识别结果,其中,所述识别模型至少包括阻变存储器特征学习层、全连接层、激活层、输出层;根据所述待优化识别结果与所述标注结果之间的差异,对所述识别模型进行训练;采用完成训练的所述识别模型识别目标语音。
-
公开(公告)号:CN117787358A
公开(公告)日:2024-03-29
申请号:CN202410064436.0
申请日:2024-01-16
Applicant: 之江实验室
IPC: G06N3/0495 , G06N3/063
Abstract: 本说明书提供的一种基于阻变存储器的模型量化方法、装置以及设备中,通过根据待量化模型构建压缩模型,确定压缩模型各网络层预设的输入位宽和预设的权重位宽,然后再将训练样本输入所述压缩模型,确定输出结果,根据所述输出结果以及所述训练样本对应标注之间的差异,确定损失;以所述损失最小为优化目标,调整所述压缩模型的各网络层的所述输入位宽以及所述权重位宽,并确定若干组符合优化条件的输入位宽以及权重位宽,根据压缩模型的模型精度确定各网络层对应的输入位宽以及权重位宽。使得量化后的模型在保证模型精度满足要求的前提下,可通过阻变存储器精确表示模型的权重,增大了阻变存储器的资源利用率。
-
公开(公告)号:CN115905546A
公开(公告)日:2023-04-04
申请号:CN202310017218.7
申请日:2023-01-06
Applicant: 之江实验室
IPC: G06F16/35 , G06N3/0464 , G06N3/048 , G06N3/063 , G06N3/08
Abstract: 本发明公开了基于阻变存储器的图卷积网络文献识别装置与方法,对文献识别数据集进行训练集和测试集的构建;构建基于阻变存储器的浮点图卷积网络模型,用训练集进行预训练,得到预训练的模型参数;根据浮点图卷积网络模型,构建基于阻变存储器的训练阶段的图卷积网络量化模型;将训练集输入训练阶段的图卷积网络量化模型,进行量化感知训练,得到每层输出值的截断位宽、损失函数的权值,以及量化感知训练后的模型参数;根据训练阶段的图卷积网络量化模型,构建基于阻变存储器的推理阶段的图卷积网络量化模型;将量化感知训练后的模型参数映射到阻变存储器上,并将测试集输入到基于阻变存储器的推理阶段的图卷积网络量化模型,进行前向推理测试。
-
公开(公告)号:CN115827170A
公开(公告)日:2023-03-21
申请号:CN202310123062.0
申请日:2023-02-16
Applicant: 之江实验室
IPC: G06F9/455
Abstract: 本发明公开了基于离散事件的计算机体系结构的并行仿真方法及装置,将待仿真的计算机体系结构,按功能与延迟划分与组合成多个关键节点,并给每个关键节点分配一个线程;所有事件队列中的事件,按照事件发生的时间进行排序,时间相同的事件,按照优先级高低进行排序,整个仿真过程共同维护一条共享时间轴;利用前瞻量与路障事件对所有关键节点进行同步。在避免因果关系错误的条件下利用现代计算机的并行计算能力加速仿真过程。本发明将待仿真体系结构系统按功能与延迟划分与组合成多个关键节点,其中划分模块有利于提高仿真系统的并行度,合并低延迟模块有助于扩大前瞻量,降低同步开销,合理的关键节点选择能进一步加速仿真过程。
-
公开(公告)号:CN114332545B
公开(公告)日:2022-08-05
申请号:CN202210261211.5
申请日:2022-03-17
Applicant: 之江实验室
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04
Abstract: 本发明提供一种基于低比特脉冲神经网络的图像数据分类方法和装置,该方法包括:步骤一,获取开源图像数据集,分为训练集和测试集,其中数据集包括计算机图像数据和神经形态数据;步骤二,构建包含隐含层的脉冲神经网络模型,再改进LIF神经元,构建基于改进后的LIF神经元的脉冲神经网络模型;步骤三,通过构建训练损失函数并进行各项梯度求解,对脉冲神经网络模型进行训练;步骤四,在训练集上使用梯度下降参数更新方法进行脉冲神经网络模型优化训练;步骤五,利用构建并训练好的脉冲神经网络模型,对测试集进行识别,得到预测的数据分类标签,实现分类任务。本发明的方法具有更低的功耗,同时与全精度网络模型有近似的准确率。
-
公开(公告)号:CN113869504B
公开(公告)日:2022-08-05
申请号:CN202111456235.8
申请日:2021-12-02
Applicant: 之江实验室
Abstract: 本发明属于新型智能计算处理器领域,涉及一种基于忆阻器可编程神经网络加速器,通过接口与SOC总线串接,该加速器包括:指令处理模块、控制单元、执行单元模块,其中,控制单元控制连接指令处理模块和执行单元模块,指令处理模块由指令存储器、取指令单元、指令译码单元依次连接组成为一体,对指令进行存取译码后,将指令信息传达给控制单元,以及将指令上的数据给到执行单元模块,执行单元模块包括:算术逻辑单元、向量处理单元、数据存储器和忆阻器存算单元;算术逻辑单元和向量处理单元,分别对应负责寄存器计算和向量计算;数据存储器与忆阻器存算单元相连后,接入向量处理单元。本发明具有高灵活度,低带宽要求,低功耗,高并行度的优点。
-
公开(公告)号:CN114399037B
公开(公告)日:2022-07-15
申请号:CN202210293602.5
申请日:2022-03-24
Applicant: 之江实验室
Abstract: 本发明公开了基于忆阻器的卷积神经网络加速器核心的模拟方法及装置,支持除常见的正负权值映射形式外还支持补码形式的RRAM权重映射,通过将RRAM核心与外围电路抽象成各个模块并将位移寄存器与RRAM的卷积过程封装成更粗粒度的事务,在保证模型功能与精度的前提下简化芯片上外围数字电路的模型结构。本发明利用高级语言搭建RRAM核心的TLM模型,支持模拟RRAM核心的功耗、延迟、算力、面积等关键参数,比传统RTL模型仿真速度快1000倍以上,帮助芯片设计人员在芯片RTL模型完成前对芯片特性进行研究,缩短芯片的研发周期。
-
公开(公告)号:CN114463161A
公开(公告)日:2022-05-10
申请号:CN202210377006.5
申请日:2022-04-12
Applicant: 之江实验室
Abstract: 本发明涉及忆阻器应用技术领域,尤其涉及一种基于忆阻器的神经网络处理连续图像的方法和装置,该方法包括以下步骤:步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列;步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量;步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。本发明加快了忆阻器上深度神经网络处理大量或者连续图像的效率。
-
-
-
-
-
-
-
-
-