一种目标检测方法、装置、电子设备及存储介质

    公开(公告)号:CN113673365A

    公开(公告)日:2021-11-19

    申请号:CN202110860061.5

    申请日:2021-07-28

    Applicant: 清华大学

    Abstract: 本发明提供一种目标检测方法、装置、电子设备及存储介质,该方法包括:获取终端发送的多组连续视频帧组,其中,每组所述连续视频帧组包括第一视频帧和N个第二视频帧;对各个所述第一视频帧进行目标检测,得到各个第一视频帧中的第一目标位置信息,并将各个所述第一目标位置信息发送到终端,以供所述终端基于各个所述第一目标位置信息,通过目标跟踪算法,确定每组所述连续视频帧组中第二视频帧的第一目标兴趣范围信息;获取所述终端反馈的所述第一目标兴趣范围信息。

    一种稀疏神经网络加速器及其实现方法

    公开(公告)号:CN110738310A

    公开(公告)日:2020-01-31

    申请号:CN201910950799.3

    申请日:2019-10-08

    Applicant: 清华大学

    Abstract: 本发明提供一种稀疏神经网络加速器及实现方法,加速器主要包括PE阵列、输出存储器和调度器模块,PE阵列被划分为多个PE组,每个PE组和对应的输出存储器组成一个关联组,关联组中PE的数量和输出存储器的数量相等;关联组中的每一个PE单元可访问关联组中的任一输出存储器;任一关联组中的PE单元,根据输入的激活值和权重值计算得到多个输出结果,并按预设规则写入对应多个输出存储器中;调度器模块调度输出激活值的顺序,降低哈希冲突的概率。本发明将原始PE阵列划分为多个PE组,与对应输出存储器形成关联组体系架构,大大降低输出内存的面积并降低功耗开销;调度器模块降低了哈希冲突的概率,极大提升了整个系统的计算性能。

    一种稀疏神经网络加速器及其实现方法

    公开(公告)号:CN110738310B

    公开(公告)日:2022-02-01

    申请号:CN201910950799.3

    申请日:2019-10-08

    Applicant: 清华大学

    Abstract: 本发明提供一种稀疏神经网络加速器及实现方法,加速器主要包括PE阵列、输出存储器和调度器模块,PE阵列被划分为多个PE组,每个PE组和对应的输出存储器组成一个关联组,关联组中PE的数量和输出存储器的数量相等;关联组中的每一个PE单元可访问关联组中的任一输出存储器;任一关联组中的PE单元,根据输入的激活值和权重值计算得到多个输出结果,并按预设规则写入对应多个输出存储器中;调度器模块调度输出激活值的顺序,降低哈希冲突的概率。本发明将原始PE阵列划分为多个PE组,与对应输出存储器形成关联组体系架构,大大降低输出内存的面积并降低功耗开销;调度器模块降低了哈希冲突的概率,极大提升了整个系统的计算性能。

    神经网络的加速方法及装置

    公开(公告)号:CN109543815B

    公开(公告)日:2021-02-05

    申请号:CN201811211042.4

    申请日:2018-10-17

    Applicant: 清华大学

    Abstract: 本发明实施例提供一种神经网络的加速方法及装置,其中方法包括:对于神经网络中的任一层,根据层的量化模式,对输入至所述层的特征图进行分块,获得若干个块数据,对所述块数据中不同通道但同一位置的像素设置同一索引值;计算所述块数据的稀疏度,抛弃全为0的块数据,对剩余的块数据,根据所述剩余的块数据的稀疏度以及预设阈值确定相应的稀疏类型,根据所述稀疏类型对所述剩余的块数据进行稀疏编码。本发明实施保证了每个像素位置处索引数量不因量化模式的不同而出现成倍增加的情况,解决了多种稀疏度和多种量化位宽混杂的神经网络编码问题。

    Transformer模型的非线性层加速方法、装置、加速器及存储介质

    公开(公告)号:CN119167999A

    公开(公告)日:2024-12-20

    申请号:CN202411024707.6

    申请日:2024-07-29

    Applicant: 清华大学

    Abstract: 本发明提供一种Transformer模型的非线性层加速方法、装置、加速器及存储介质,其中的方法包括:获取Softmax网络层的输入向量;对输入向量进行分组稀疏处理,得到Softmax网络层的输出向量;Softmax网络层的输出向量为LayerNorm网络层的输入向量;对LayerNorm网络层的输入向量进行双路径稀疏处理,得到LayerNorm网络层的输出向量。该方法通过对Softmax网络层的输入向量进行稀疏处理,并对LayerNorm网络层的输入向量进行双路径稀疏处理,此过程不仅显著提升了Transformer模型处理长序列数据的计算效率,还减少了对应的内存开销。

    神经网络的加速方法及装置

    公开(公告)号:CN109543815A

    公开(公告)日:2019-03-29

    申请号:CN201811211042.4

    申请日:2018-10-17

    Applicant: 清华大学

    CPC classification number: G06N3/04

    Abstract: 本发明实施例提供一种神经网络的加速方法及装置,其中方法包括:对于神经网络中的任一层,根据层的量化模式,对输入至所述层的特征图进行分块,获得若干个块数据,对所述块数据中不同通道但同一位置的像素设置同一索引值;计算所述块数据的稀疏度,抛弃全为0的块数据,对剩余的块数据,根据所述剩余的块数据的稀疏度以及预设阈值确定相应的稀疏类型,根据所述稀疏类型对所述剩余的块数据进行稀疏编码。本发明实施保证了每个像素位置处索引数量不因量化模式的不同而出现成倍增加的情况,解决了多种稀疏度和多种量化位宽混杂的神经网络编码问题。

Patent Agency Ranking