任务数据处理方法、装置以及电子设备

    公开(公告)号:CN116361040A

    公开(公告)日:2023-06-30

    申请号:CN202111618939.0

    申请日:2021-12-27

    Inventor: 祝叶华 孙炜

    Abstract: 本申请实施例公开了一种任务数据处理方法、装置以及电子设备。所述方法包括:第二数据处理模块响应于接收到的中断信号,获取所接收到的中断信号的内容;若中断信号的内容表征终止当前任务并开始执行下一任务,清理第一数据缓冲模块、第二数据处理模块以及第二数据缓冲模块中的与当前任务对应的任务数据;若中断信号的内容表征暂停当前任务并开始执行下一任务,存储当前任务对应的任务状态数据;执行中断信号对应的下一任务。通过上述方式使得,可以基于中断信号对当前任务数据进行清理或者存储当前任务对应的任务状态数据,避免了电子设备在执行与中断信号对应的下一任务时出现数据处理异常的问题。

    计算方法及相关装置
    12.
    发明公开

    公开(公告)号:CN114063979A

    公开(公告)日:2022-02-18

    申请号:CN202111436343.9

    申请日:2021-11-29

    Inventor: 祝叶华 孙炜

    Abstract: 本申请公开了一种计算方法及相关装置,所述方法包括:获取M位的第一数据,以及获取N位的第二数据,M、N均为大于1的整数,且M、N之间的公约数大于1;根据所述公约数对所述第一数据进行分割,得到P个字段,P为正整数;根据所述公约数对所述第二数据进行分割,得到Q个字段,Q为正整数;根据所述P个字段和所述Q个字段进行乘法运算,得到P*Q个第一中间结果;根据所述P*Q个第一中间结果确定所述第一数据与所述第二数据的乘积结果。采用本申请实施例能够支持多种精度计算需求。

    神经网络加速器、数据处理装置及神经网络加速方法

    公开(公告)号:CN113780541A

    公开(公告)日:2021-12-10

    申请号:CN202111020115.3

    申请日:2021-09-01

    Inventor: 祝叶华 孙炜

    Abstract: 本申请提供一种神经网络加速器,包括第一处理单元和第二处理单元;所述第一处理单元中的第一数据中转模块与所述第二处理单元中的第二数据中转模块连接;所述第一处理单元通过所述第一数据中转模块,向所述第二数据中转模块发送第一目标数据,和/或,所述第一处理单元通过所述第一数据中转模块接收所述第二数据中转模块发送的第二目标数据。本申请还提供一种数据处理装置和神经网络加速方法。

    计算装置、神经网络处理设备、芯片及处理数据的方法

    公开(公告)号:CN113918120B

    公开(公告)日:2025-01-03

    申请号:CN202111218718.4

    申请日:2021-10-19

    Inventor: 孙炜 祝叶华

    Abstract: 提供了一种计算装置、神经网络处理设备、芯片及处理数据的方法。该计算装置包括:数据存储器,用于存储第一矩阵和第二矩阵的矩阵数据,第一矩阵为m×s的矩阵,第二矩阵为s×n的矩阵,矩阵数据包括s组数据,其中每组数据包括第一矩阵中的一个列向量以及第二矩阵中的与列向量索引相同的一个行向量;计算模块,与数据存储器相连,用于执行第一矩阵和第二矩阵的乘法运算;调度模块,与数据存储器相连,用于控制数据存储器向计算模块输入s组数据,计算模块基于s组数据执行s次向量外积运算,以得到第一矩阵和第二矩阵的乘积结果。本申请实施例提出一种基于向量外积的矩阵乘法运算,具有更高的数据复用率,因此能够降低数据传输量和传输功耗。

    一种数据处理方法及装置、芯片、存储介质

    公开(公告)号:CN117332825A

    公开(公告)日:2024-01-02

    申请号:CN202210716280.0

    申请日:2022-06-22

    Inventor: 孙炜 祝叶华

    Abstract: 本申请实施例提供了一种数据处理方法及装置、芯片、存储介质,装置包括:设置有缓存单元的计算单元阵列、分配单元和特征数据存储器,分配单元连接计算单元阵列和特征数据存储器;缓存单元处于计算单元阵列中的每个计算单元中;其中,每一个特征数据存储器中存储一个输入通道的输入特征数据;分配单元,用于根据特征数据存储器和计算单元阵列之间的数据映射关系,将特征数据存储器中的输入特征数据传输至计算单元阵列中对应的计算单元中;缓存单元,用于根据每个计算单元中输出的一个乘累加结果确定出输出特征数据;分配单元,还用于根据数据映射关系,将一个卷积核对应的输出特征数据传输至对应的一个特征数据存储器中。

    数据处理方法、神经网络处理器、电子设备及存储介质

    公开(公告)号:CN117313808A

    公开(公告)日:2023-12-29

    申请号:CN202210701591.X

    申请日:2022-06-20

    Inventor: 祝叶华 孙炜

    Abstract: 本申请实施例公开了一种数据处理方法、神经网络处理器、电子设备及存储介质,神经网络处理器与存储器连接,神经网络处理包括:查表单元,以及分别与查表单元连接的减法单元、加法单元和乘法单元;减法单元,用于执行两次差值计算操作,得到相同的两组差值;查表单元,用于针对两组差值分别执行指数查找操作,得到相同的两组自然指数;加法单元,用于将一组自然指数内的各个自然指数相加,得到总自然指数;查表单元,还用于从倒数映射表中查找总自然指数的倒数;乘法单元,用于将另一组自然指数内的各个自然指数,分别与倒数相乘,得到多个数据的归一化处理结果。

    任务处理系统、方法、人工智能芯片和电子设备

    公开(公告)号:CN117272357A

    公开(公告)日:2023-12-22

    申请号:CN202210662871.4

    申请日:2022-06-13

    Inventor: 祝叶华 孙炜

    Abstract: 本公开提供了一种任务处理系统、方法、芯片和电子设备,涉及人工智能技术领域。该任务处理系统包括信箱用于接收待处理任务的属性信息;中央处理器用于根据信箱中待处理任务的属性信息配置至少一个计算核;计算核用于发送包括待处理任务的数据读取地址、计算核的标识及计算核的安全属性信息的数据读取命令,以及在读取待处理任务的数据后,对待处理任务的数据进行计算以得到计算结果;地址过滤器用于接收数据读取命令,如果待处理任务的数据读取地址、计算核的标识以及计算核的安全属性信息满足于地址过滤器中配置的数据访问要求,则控制计算核基于待处理任务的数据读取地址读取到待处理任务的数据。本公开可以保障数据的隐私性和安全性。

    计算设备和任务处理方法
    18.
    发明公开

    公开(公告)号:CN117252242A

    公开(公告)日:2023-12-19

    申请号:CN202210647566.8

    申请日:2022-06-08

    Inventor: 孙炜 祝叶华

    Abstract: 本申请公开了一种计算设备和任务处理方法,属于计算机技术领域。所述计算设备包括神经网络处理器NPU、第一存储器和第二存储器,所述NPU与所述第一存储器直接连接,并且通过总线与所述第二存储器连接;所述第一存储器,用于存储第一类型任务的任务数据;所述第二存储器,用于存储第二类型任务的任务数据,所述第一类型任务要求的处理延时低于所述第二类型任务要求的处理延时;所述NPU,用于获取所述第一存储器中的任务数据,并通过所述总线获取所述第二存储器中的任务数据,基于所获取的任务数据处理任务。该计算设备能够提高NPU的利用效率。

    神经网络的数据处理方法、装置、存储介质与电子设备

    公开(公告)号:CN117251134A

    公开(公告)日:2023-12-19

    申请号:CN202210642072.0

    申请日:2022-06-08

    Inventor: 孙炜 祝叶华

    Abstract: 本公开提供一种神经网络的数据处理方法、装置、存储介质与电子设备,涉及计算机技术领域。所述方法包括:获取输入至神经网络中的当前运算单元的多组待处理数据,所述待处理数据包括阶数和尾数;提取所述多组待处理数据的公共阶数因子,并对每一组待处理数据中的尾数与提取所述公共阶数因子后的剩余阶数相乘,得到每一组待处理数据对应的待累加数据;对各组待处理数据对应的待累加数据进行累加,并将累加结果与所述公共阶数因子相乘,得到所述当前运算单元的输出数据。本公开有利于提高神经网络的数据处理效率,降低硬件功耗。

    电压频率调节方法、装置、神经网络加速器及存储介质

    公开(公告)号:CN116611484A

    公开(公告)日:2023-08-18

    申请号:CN202210133672.4

    申请日:2022-02-07

    Inventor: 祝叶华 孙炜

    Abstract: 本申请实施例公开了一种电压频率调节方法、装置、神经网络加速器及存储介质,方法包括:针对预设神经网络中每个计算层,利用对应的特征图像的尺寸和包含的卷积核的尺寸确定对应的总计算量,并预估计算引擎完成对应的总计算量的时长,确定为对应的计算时长;针对预设神经网络中每个计算层,利用对应的特征图像在多个存储器中每个存储器的存储量,以及多个存储器中每个存储器的传输带宽,预估对应的特征图像传输至计算引擎的时长,确定为对应的访存时长;在神经网络处理器利用计算引擎依次执行预设神经网络中每个计算层的期间,基于每个计算层对应的计算时长和访存时长,动态调节神经网络处理器的电压频率。

Patent Agency Ranking