配置用于执行层描述符列表的具有功率效率的深度神经网络模块

    公开(公告)号:CN110582785B

    公开(公告)日:2024-02-27

    申请号:CN201880025508.3

    申请日:2018-04-16

    Abstract: 一种深度神经网络(DNN)处理器被配置为执行层描述符列表中的描述符。所述描述符定义用于由所述DNN处理器执行DNN的传递的指令。可以使用若干类型的描述符:存储器到存储器移动(M2M)描述符;操作描述符;主机通信描述符;配置描述符;分支描述符;以及同步描述符。DMA引擎使用M2M描述符来执行多维跨界DMA操作。操作描述符定义将由DNN处理器中的神经元执行的操作的类型以及将由神经元使用的激活函数。M2M描述符与操作描述符分开缓存,并且可以在受制于明确设置依赖性的情况下下尽快执行。结果,可以减少等待时间,并且因此神经元可以更快地完成其处理。因此,与其他方式相比,可以更早地关闭DNN模块的电源,从而节省功率。

    使用虚拟化数据迭代器对神经网络进行数据处理性能增强

    公开(公告)号:CN110520857B

    公开(公告)日:2023-07-28

    申请号:CN201880025504.5

    申请日:2018-04-06

    Abstract: 神经网络(NN)和/或深度神经网络(DNN)的性能可能受到正在执行的操作的数目以及NN/DNN的各种存储器组件之间的数据管理的限制。使用虚拟化硬件迭代器,由NN/DNN处理的数据可以被遍历并且被配置为优化操作的数目以及存储器利用率,以增强NN/DNN的整体性能。可操作地,迭代器控制器可以生成用于由NN/DNN执行的指令,指令表示一个或多个期望的迭代器操作类型并执行一个或多个迭代器操作。可以根据所选择的迭代器操作来将数据迭代,并将数据通信到NN/DD的一个或多个神经元处理器来进行处理并输出到目标存储器。迭代器操作可以应用于并行的各种数据量(例如,二进制大对象)或相同容量的多个切片。

    通过跳过处理操作来减少神经网络处理器中的功耗

    公开(公告)号:CN110546611B

    公开(公告)日:2023-05-02

    申请号:CN201880025480.3

    申请日:2018-04-16

    Abstract: 深度神经网络(“DNN”)模块可以确定由神经元对输入缓冲区或权重缓冲区中的某些值的处理是否可以被跳过。例如,DNN模块可以确定神经元是否可以跳过对神经元缓冲区的整个列中的值的处理。例如,如果输入缓冲区或权重缓冲区的整个列为零,则可以跳过对这些值的处理。DNN模块还可以确定对输入缓冲区或权重缓冲区的行中的单个值的处理(例如,如果这些值为零)是否可以被跳过。由于跳过操作而提早完成其处理的神经元可以协助其他神经元进行其处理。可以在将由神经元执行的处理操作的结果传递给其正确所有者的处理完成之后执行组合操作。

    提高了精度的神经处理元件
    5.
    发明公开

    公开(公告)号:CN114008584A

    公开(公告)日:2022-02-01

    申请号:CN202080044133.2

    申请日:2020-05-11

    Abstract: 神经处理元件被配置有硬件与门,该与门被配置为执行符号扩展信号与操作数的最高有效位(“MSB”)之间的逻辑与操作。符号扩展信号的状态可以是基于生成操作数的深度神经网络(“DNN”)的层的类型。如果符号扩展信号是逻辑假,则没有信号扩展被执行。如果符号扩展信号是逻辑真,则联接器联接硬件与门的输出和操作数,从而将操作数从N位无符号的二进制值扩展到N+1位有符号的二进制值。神经处理元件还可以包括另一硬件与门和用于类似地处理另一操作数的另一联接器。针对两个操作数的联接器的输出被提供给硬件二进制乘法器。

    用于增强数据处理的系统、方法及神经网络处理器

    公开(公告)号:CN118153639A

    公开(公告)日:2024-06-07

    申请号:CN202410312381.0

    申请日:2018-04-16

    Abstract: 本公开涉及用于增强数据处理的系统、方法及神经网络处理器。说明性地,第一节流机制可以指定在协作构造组件(例如,数据总线)上的事务之间等待的周期数目。说明性地,第二节流机制可以是事务计数限制器,该事务计数限制器操作性地设定在给定事务序列期间要被处理的事务数目的阈值,并且限制诸如飞行中的多个事务的事务数目不超过所设定的阈值。在说明性操作中,在执行这两个示例性的所计算的节流参数时,平均带宽使用和峰值带宽使用可以被限制。操作性地,利用该构造带宽控制,DNN的处理单元被优化,以跨每个事务周期处理数据,从而得到增强的处理和较低的功耗。

    在深度神经网络模块中动态划分工作负载以降低功率消耗

    公开(公告)号:CN110678843B

    公开(公告)日:2023-07-07

    申请号:CN201880025426.9

    申请日:2018-04-16

    Abstract: 公开了能够将神经元工作负载动态地划分以降低功率消耗的深度神经网络(DNN)模块。DNN模块包括神经元和组划分器以及调度器单元。组划分器和调度器单元将针对神经元的工作负载拆分为分区,以便将可以同时处理工作负载的神经元的数量最大化。组划分器和调度器单元然后将神经元的组分配给分区中的每个分区。DNN模块中的神经元的组处理它们的分配的分区中的工作负载以生成部分输出值。每个组中的神经元然后能够对它们的部分输出值求和以针对工作负载生成最终输出值。一旦神经元的组完成了对它们的分配的工作负载的处理,就可以将神经元关断以降低功率消耗。

Patent Agency Ranking