脉冲神经网络转换方法及相关转换芯片

    公开(公告)号:CN110059800A

    公开(公告)日:2019-07-26

    申请号:CN201910079637.7

    申请日:2019-01-26

    Abstract: 本发明公开了一种人工神经网络转换为脉冲神经网络的脉冲神经网络转换方法及相关转换芯片,该脉冲神经网络转换方法包括:根据人工神经网络的待转换层和转换激活函数,得到待转换人工神经网络,该转换激活函数的结果与该人工神经网络的输入数据正相关;训练该待转换人工神经网络,得到训练后待转换人工神经网络;以及根据该训练后待转换人工神经网络和时钟神经元,得到脉冲神经网络。

    基于人工神经网络处理器的云端协同智能芯片

    公开(公告)号:CN108675071A

    公开(公告)日:2018-10-19

    申请号:CN201810413695.4

    申请日:2018-05-03

    Inventor: 高钰峰 陈云霁

    Abstract: 本公开提供一种人工智能电梯调度系统,包括:多个根据人工智能摄像头,配置为安装于一大楼的不同楼层,用于摄取电梯外部的等待人员,并输出统计人数;人工智能电梯调度设备,用于响应呼叫楼层的用户请求,接收至少一个楼层的用户请求数据,确定电梯调度方案。本公开能够在摄像头端即可以分析所拍摄的图片和/或视频内的人数,为后期分析提供依据,而无需将视频传输到后台再进行处理。

    基于N-GRAM和WFST模型的人工神经网络芯片及其应用方法

    公开(公告)号:CN108364066A

    公开(公告)日:2018-08-03

    申请号:CN201810249286.5

    申请日:2018-03-23

    Inventor: 于涌 陈云霁

    Abstract: 本公开提供了一种基于深度神经网络的自动聊天方法,包括以下步骤:获取用户输入信息,并经深度神经网络编码器生成固定长度向量;所述固定长度向量输入attention模型之后输出分数;根据所述分数判定经由attention模型或自然模型生成与所述输入信息对应的答复信息;其中,若所述分数小于一分数阈值,则进入语言模型,经语言模型生成与所述输入信息对应的答复信息;反之,直接经由attention模型生成与所述输入信息对应的答复信息。本公开还提供了一种基于深度神经网络的自动聊天机器人。本公开基于深度神经网络的自动聊天方法及机器人保证了聊天过程中答复信息的准确性,使得聊天内容更切合实际。

    神经网络运算装置及应用其进行运算的方法

    公开(公告)号:CN108170640A

    公开(公告)日:2018-06-15

    申请号:CN201711452014.7

    申请日:2017-10-17

    Abstract: 本公开提供一种神经网络运算装置和方法,其中装置包括:运算部分,用于完成所述卷积运算,包含多个运算单元组,多个所述运算单元组呈X行Y列的阵列式分布,运算单元组间以S形方向和/或逆S形方向传递数据,其中X和Y分别为正整数;缓存,用于向所述运算单元组传送数据以及接收运算单元组运算后的数据。通过采用S形和逆S形在运算单元中完成数据的传递,从而能够有效加速神经网络运算的同时,降低了权值的反复读取和部分和反复存取所带来的访存功耗。

    计数方法及装置
    15.
    发明公开

    公开(公告)号:CN108052984A

    公开(公告)日:2018-05-18

    申请号:CN201711467274.1

    申请日:2017-10-30

    Abstract: 本公开提供了一种计数方法,包括:对一FAST R‑CNN或YOLO深度神经网络进行训练;以及利用训练后的FAST R‑CNN或YOLO深度神经网络对待计数的图像中包含的计数目标物体进行计数。本公开还提供了一种计数装置。本公开计数方法及装置应用范围广,可针对任意计数对象进行计数,节省人力并且提供了更高的通用性。

    神经网络的计算方法、系统及其装置

    公开(公告)号:CN107203807A

    公开(公告)日:2017-09-26

    申请号:CN201610149920.9

    申请日:2016-03-16

    Abstract: 本发明适用于计算机技术领域,提供了一种神经网络的计算方法、系统及其装置,所述计算方法包括如下步骤:A、将神经网络划分为多个内部数据特征一致的子网;B、对每个所述子网进行计算,获得每个所述子网的第一计算结果;C、根据每个所述子网的第一计算结果计算所述神经网络的总计算结果,借此,本发明提升了神经网络的计算效率。

    一种用于DRAM或eDRAM刷新的装置及其方法

    公开(公告)号:CN106856098A

    公开(公告)日:2017-06-16

    申请号:CN201611080414.5

    申请日:2016-11-30

    Abstract: 本发明公开了一种用于DRAM或eDRAM刷新的装置及其方法,DRAM或eDRAM设置有存储单元,该装置包括:存储控制装置、刷新控制装置;所述存储控制装置,用于接收读写请求,并根据所述刷新控制装置的输出决定向存储单元发送读写请求或刷新请求;所述刷新控制装置,用于控制生成刷新信号,并根据所述存储控制装置的输出来记录刷新是否被延迟和读写的行地址。本发明能够减少读写与刷新之间的冲突,达到增加DRAM或者eDRAM性能的效果。

    硬件实现的数据排序装置、方法及数据处理芯片

    公开(公告)号:CN105512179B

    公开(公告)日:2017-06-09

    申请号:CN201510828602.0

    申请日:2015-11-25

    CPC classification number: G06F17/30

    Abstract: 本发明提供一种功耗低、面积小、结构简单、效率高的可应用于加速器中的硬件实现的数据排序装置、方法及包括该数据排序装置的数据处理芯片,所述数据排序装置包括:寄存器组,保存数据排序过程中暂时排出的K个最大或最小的数据,寄存器组包括多个并行连接的寄存器,且相邻两个寄存器由低级向高级单向传输数据;比较器组,包括以与所述寄存器一一对应的方式相连接的多个比较器,比较输入的多个数据的大小关系,并将较大或较小的数据输出至对应的寄存器;控制电路,设置有作用于所述寄存器的多个标志位,所述标志位判断所述寄存器是否接收由对应的比较器或低一级寄存器传来的数据,以及判断寄存器是否向高一级寄存器传输数据。

    数据累加装置、方法及数字信号处理装置

    公开(公告)号:CN105528191B

    公开(公告)日:2017-04-12

    申请号:CN201510862723.7

    申请日:2015-12-01

    CPC classification number: G06F7/50

    Abstract: 本发明公开一种数据累加装置、方法及数字信号处理装置,所述装置包括:累加树模块,采用二叉树结构的形式对输入数据进行累加,并输出累加结果数据;寄存模块,包含多组寄存器,对累加树模块在累加过程中产生的中间值数据及累加结果数据进行寄存;控制电路,生成数据选通信号以控制累加树模块过滤不需要累加的输入数据,以及生成flag标志信号以进行如下控制:选择将一个或多个存储于寄存器中的中间值数据与所述累加结果相加后的结果作为输出数据,或者选择直接将累加结果作为输出数据。由此,能够在一个时钟周期节拍内快速的将多组输入数据累加至一组和值。同时,所述累加装置可通过控制信号灵活选择同时累加多个输入数据中的部分数据。

Patent Agency Ranking