用有向线缓冲器最小化存储器读取提高神经网络环境性能

    公开(公告)号:CN110546628A

    公开(公告)日:2019-12-06

    申请号:CN201880025415.0

    申请日:2018-04-06

    Abstract: 神经网络(NN)和/或深度神经网络(DNN)的性能可以受到正在执行的操作的数目以及NN/DNN的各种存储器组件中间的数据管理的限制。使用可操作地在数据块中插入要处理的一个或多个移位比特的有向线缓冲器,可以优化对线缓冲器的数据读/写以便由NN/DNN进行处理,从而增强NN/DNN的整体性能。可操作地,操作控制器和/或迭代器能够生成具有所计算的(多个)移位比特的一个或多个指令,以用于传送到线缓冲器。说明性地,可以使用输入数据的各种特性以及包括数据维度的NN/DNN来计算(多个)移位比特。线缓冲器可以读取用于处理的数据,插入移位比特并将数据写入线缓冲器中以供(多个)协作处理单元进行后续处理。

    对数据分区的动态排序
    13.
    发明公开

    公开(公告)号:CN116909985A

    公开(公告)日:2023-10-20

    申请号:CN202310874704.0

    申请日:2018-04-06

    Abstract: 本申请的各实施例涉及对数据分区的动态排序。经优化的存储器使用和管理对于神经网络(NN)或深度神经网络(DNN)计算环境的整体性能至关重要。使用输入数据维度的各种特性,分配序列针对将由NN或DNN处理的输入数据而被计算,分配序列优化本地和外部存储器组件的有效使用。分配序列可以描述如何将输入数据(及其相关联的处理参数(例如,处理权重))拆分为一个或多个部分以及输入数据的这样的部分(及其相关联的处理参数)如何在本地存储器、外部存储器和NN或DNN的处理单元组件之间被传递。附加地,分配序列可以包括将所生成的输出数据存储在本地和/或外部存储器组件中以优化本地和/或外部存储器组件的有效使用的指令。

    通过数据共享和分配增强人工智能/机器硬件的处理性能

    公开(公告)号:CN110546610B

    公开(公告)日:2023-02-10

    申请号:CN201880025126.0

    申请日:2018-04-16

    Abstract: 具有与一个或多个存储器组件协作的示例性DNN模块的示例性人工智能/机器学习硬件计算环境可以执行数据共享和分发以及缓冲器数据的重用,以减少存储器组件读/写的数目,从而增强整体硬件性能并降低功耗。说明性地,根据示例性硬件的所选操作来读取来自协作存储器组件的数据,并将其写入对应的其他存储器组件以供一个或多个处理元件(例如,神经元)使用。以该方式读取数据,来优化每个处理周期的一个或多个处理元件的参与,以及重用先前存储在一个或多个协作存储器组件中的数据。可操作地,将写入的数据在被处理元件消费之前复制到阴影存储器缓冲器。

    通过构造接口的带宽控制来增强DNN模块的处理性能

    公开(公告)号:CN110546654A

    公开(公告)日:2019-12-06

    申请号:CN201880025130.7

    申请日:2018-04-16

    Abstract: 具有DNN模块的示例性计算环境可以维持一个或多个带宽节流机制。说明性地,第一节流机制可以指定在协作构造组件(例如,数据总线)上的事务之间等待的周期数目。说明性地,第二节流机制可以是事务计数限制器,该事务计数限制器操作性地设定在给定事务序列期间要被处理的事务数目的阈值,并且限制诸如飞行中的多个事务的事务数目不超过所设定的阈值。在说明性操作中,在执行这两个示例性的所计算的节流参数时,平均带宽使用和峰值带宽使用可以被限制。操作性地,利用该构造带宽控制,DNN的处理单元被优化,以跨每个事务周期处理数据,从而得到增强的处理和较低的功耗。

    配置用于执行层描述符列表的具有功率效率的深度神经网络模块

    公开(公告)号:CN110582785A

    公开(公告)日:2019-12-17

    申请号:CN201880025508.3

    申请日:2018-04-16

    Abstract: 一种深度神经网络(DNN)处理器被配置为执行层描述符列表中的描述符。所述描述符定义用于由所述DNN处理器执行DNN的传递的指令。可以使用若干类型的描述符:存储器到存储器移动(M2M)描述符;操作描述符;主机通信描述符;配置描述符;分支描述符;以及同步描述符。DMA引擎使用M2M描述符来执行多维跨界DMA操作。操作描述符定义将由DNN处理器中的神经元执行的操作的类型以及将由神经元使用的激活函数。M2M描述符与操作描述符分开缓存,并且可以在受制于明确设置依赖性的情况下下尽快执行。结果,可以减少等待时间,并且因此神经元可以更快地完成其处理。因此,与其他方式相比,可以更早地关闭DNN模块的电源,从而节省功率。

Patent Agency Ranking