一种用于执行图计算任务的装置、图计算方法

    公开(公告)号:CN116128701A

    公开(公告)日:2023-05-16

    申请号:CN202211500779.4

    申请日:2022-11-28

    Abstract: 本发明提供一种用于执行图计算任务的装置,所述装置包括:中央处理器,用于对待进行图计算的图数据集进行预处理以按照图加速器的计算节点数量将其划分为与计算节点数量一致的多个子图;图加速器,其包括多个计算节点,用于接收并处理中央处理器传输的所有子图,每个计算节点处理一个子图的计算并从其他计算节点获取其他计算节点的子图数据以更新自身处理的子图,其中:所述计算节点由一个或多个存内计算器件组成,所有计算节点采用环状拓扑结构依次相联,且计算节点间的数据传输模式为单向传输,下游计算节点从上游计算节点预取数据。本发明提出的装置可以在不带来冗余计算的同时消除对图计算任务性能的影响更大的跨节点间同步操作。

    一种能对非极大值抑制处理加速的神经网络加速器

    公开(公告)号:CN116090531A

    公开(公告)日:2023-05-09

    申请号:CN202310072085.3

    申请日:2023-01-13

    Abstract: 本发明提供了一种能对非极大值抑制处理加速的神经网络加速器,所述加速器包括非极大值抑制模块,其中,所述非极大值抑制模块包括:候选边框输入单元,其用于在每种预测类别下按类别置信度由高到低的顺序输入需要进行非极大值抑制处理的候选的边框;边框存储单元,其用于存储候选边框单元输入的首个边框以及新目标的边框;边框交并比运算单元,其用于进行交并比运算以得到交并比值;交并比对比单元,其用于将边框交并比运算单元获得的交并比值与预设的交并比阈值进行对比以确定当前输入的边框是否为新目标的边框;边框处理单元,其用于将新目标的边框作为满足预定要求的边框存入边框存储单元,并通知候选边框输入单元输入下一个候选的边框。

    一种基于存内计算的稀疏矩阵稠密乘法加速器

    公开(公告)号:CN115964015A

    公开(公告)日:2023-04-14

    申请号:CN202211658543.3

    申请日:2022-12-22

    Abstract: 本发明实施例提供一种基于存内计算的稀疏矩阵稠密乘法加速器,该加速器包括:控制器,用于根据当前的计算任务,确定其中稀疏矩阵的所有非零数值、稠密向量的所有非零数值、稀疏矩阵和稠密向量的每个非零数值对应的行索引值和列索引值,且非零数值为浮点数值;CAM阵列,用于存储稀疏矩阵的每个非零数值对应的行索引值和列索引值,根据稠密向量的每个非零数值的行索引值匹配需与之进行计算的稀疏矩阵的每个非零数值的列索引值和行索引值,得到匹配结果;MAC阵列,用于根据CAM阵列的匹配结果关联存储稀疏矩阵的每个非零数值和稠密向量的每个非零数值,并执行关联存储的稀疏矩阵的每个非零数值与稠密向量对应的非零数值间的浮点乘法计算,得到计算结果。

    基于Winograd卷积的运算装置及包含该装置的神经网络处理器

    公开(公告)号:CN109190756B

    公开(公告)日:2022-02-18

    申请号:CN201811048884.2

    申请日:2018-09-10

    Abstract: 本发明提供了一种基于Winograd卷积的卷积运算单元和相应的神经网络处理器。该卷积运算单元包括乘法器、累加器和第一选通器,乘法器用于接收待进行矩阵相乘运算的元素或待进行矩阵点乘运算的元素,第一选通器用于接收来自于乘法器的输出值和待进行累加运算的元素,通过控制第一选通器将待进行累加运算的元素或者将所述乘法器的输出值传递至累加器能够使该卷积运算单元在多个工作模式之间进行切换。将本发明的卷积运算单元应用于神经网络处理器能够提高计算效率并降低运行功耗。

    神经网络的计算装置、处理器和电子设备

    公开(公告)号:CN112132272A

    公开(公告)日:2020-12-25

    申请号:CN202010999082.0

    申请日:2020-09-22

    Abstract: 本发明提供了一种神经网络的计算装置、处理器和电子设备,其中,计算装置包括:逻辑运算电路和通路选择模块;所述通路选择模块,用于根据接收的神经网络中的计算元素所占用的位宽控制所述逻辑运算电路包括的多个计算电路中的一个计算电路导通;所述逻辑运算电路,用于基于所述导通的计算电路对所述计算元素进行运算,获得所述计算元素对应的计算结果。通过根据计算元素占用的位宽不同,控制逻辑运算电路导通不同的计算电路,实现可对不同位宽的计算元素进行计算,应用到神经网络的计算中,可实现对二值神经网络和三值神经网络的计算,实现了对二值神经网络和三值神经网络的运算加速。

    一种构建自动驾驶决策系统的方法、系统和介质

    公开(公告)号:CN111985614A

    公开(公告)日:2020-11-24

    申请号:CN202010715409.7

    申请日:2020-07-23

    Abstract: 本发明实施例提供了一种构建自动驾驶决策系统的方法、系统和介质,所述自动驾驶决策系统包括强化学习模块和安全保障模块,所述安全保障模块包括基于规则的子模块和基于数据驱动的子模块,所述方法包括:A1、随机初始化强化学习模块和基于数据驱动的子模块的神经网络参数;A2、对自动驾驶决策系统依次进行第一学习阶段和第二学习阶段的训练;本发明无需大量的专家经验指导自动驾驶决策系统如何进行决策,节约了大量的训练成本,而且本发明的系统输出解析解作为经纠正的安全的动作向量,为驾驶的安全性提供了理论支撑,可以提高在实际应用中根据自动驾驶决策系统决策生成的动作向量进行自动驾驶的安全性。

    用于神经网络的池化装置和池化方法

    公开(公告)号:CN108376283B

    公开(公告)日:2020-11-03

    申请号:CN201810015196.X

    申请日:2018-01-08

    Abstract: 本发明提供了一种用于神经网络的池化装置和池化方法。该池化装置包括:池化运算单元,用于对输入的神经元进行池化运算;控制单元,用于基于所述池化运算单元的处理能力将池化范围内的神经元划分为多个批次并控制各批次的神经元依次输入至所述池化运算单元进行池化运算。本发明的池化装置和池化方法通过对池化范围内的神经元进行批次划分,能够提高神经网络的计算效率。

Patent Agency Ranking