用于运行微处理器的方法

    公开(公告)号:CN107133017B

    公开(公告)日:2023-08-11

    申请号:CN201710108499.1

    申请日:2017-02-27

    Inventor: J.托普

    Abstract: 本发明涉及用于运行微处理器(100)的方法,其中通过在微处理器(100)中实施的转换软件(110)执行二进制翻译,在二进制翻译的过程中,源指令被二进制地翻译成目标指令,所述源指令按照第一指令集架构被编码,所述目标指令按照第二指令集架构被编码,其中由转换软件(110)复制所述被翻译成第二指令集架构的目标指令(114),并且其中在所复制的目标指令中,在实施目标指令的过程中应当访问的存储区域由第二存储区域代替(115),并且其中目标指令和所复制的目标指令由微处理器(100)实施。利用本方法通过在一个处理器核心上(时间上)并行地实施目标指令实现时间上的冗余,以及通过在不同的处理器核心上并行地实施目标指令实现本地的或者局部的冗余。

    计算单元
    2.
    发明公开

    公开(公告)号:CN107423029A

    公开(公告)日:2017-12-01

    申请号:CN201710363750.9

    申请日:2017-05-22

    Abstract: 本发明涉及计算单元。提出了一种计算单元(2),其包括有流水线功能的具有第一存储元件(8)的第一计算内核(4)和有流水线功能的具有第二存储元件(10)的第二计算内核(6)。第一计算内核(4)被构造为开始对指令(14)的流水线处理,其中第二计算内核(6)被构造为开始对指令(14)的冗余的流水线处理。比较单元(20)被构造为确定所述第一存储元件(8)的第一状态(16)与所述第二存储元件(10)的第二状态(18)之间的偏差(CMP=0),其中所述第一和所述第二计算内核(4、6)被构造为在所述偏差(CMP=0)被确定时开始对指令(14)的重新的流水线处理。

    用于存储高效地运行神经网络的方法和设备

    公开(公告)号:CN110263910B

    公开(公告)日:2025-02-18

    申请号:CN201910179660.3

    申请日:2019-03-11

    Abstract: 本发明涉及一种用于运行具有神经网络、尤其卷积(convolutional)神经网络的计算系统(1)的方法,其中,所述计算系统具有用于所述神经网络的按顺序的计算的计算装置(2)和用于将在所述计算装置(2)中的所述计算的中间结果中间存储的相对于所述计算装置在外部的存储器(4),所述方法具有以下步骤:‑借助神经网络逐步地计算(S2,S3)数据区段,所述数据区段分别表示中间结果的组,‑有损耗地压缩(S5,S6,S7,S8)所述数据区段其中的一个或多个,以便获得经压缩的中间结果,并且‑将所述经压缩的中间结果传输(S9)给所述外部存储器(4)。

    用于检验神经网络中的神经元函数的方法和设备

    公开(公告)号:CN110162426B

    公开(公告)日:2025-01-28

    申请号:CN201910110015.6

    申请日:2019-02-11

    Abstract: 本发明涉及用于检验神经网络中的神经元函数的方法和设备。一种用于检验对神经网络的多个神经元(1)的神经元值的计算的方法具有下列步骤:‑执行或者促使对多个神经元(1)的神经元函数的计算,以便分别获得神经元值,其中通过针对每个神经元输入的单独的权重(wn,i)来确定所述神经元函数;‑将第一比较值(V1)计算为多个神经元(1)的神经元值的和;‑利用多个神经元(1)的一个或者多个校核神经元函数和所有神经元输入执行或者促使校核计算,以便根据多个神经元(1)的神经元输入并且根据多个神经元(1)的与相应的神经元输入关联的权重(wn,i)的和获得第二比较值(V2);‑根据第一比较值(V1)和第二比较值(V2)来识别错误。

    用于运行微处理器的方法

    公开(公告)号:CN107133017A

    公开(公告)日:2017-09-05

    申请号:CN201710108499.1

    申请日:2017-02-27

    Inventor: J.托普

    CPC classification number: G06F9/3017 G06F8/52 G06F9/3001 G06F9/30021

    Abstract: 本发明涉及用于运行微处理器(100)的方法,其中通过在微处理器(100)中实施的转换软件(110)执行二进制翻译,在二进制翻译的过程中,源指令被二进制地翻译成目标指令,所述源指令按照第一指令集架构被编码,所述目标指令按照第二指令集架构被编码,其中由转换软件(110)复制所述被翻译成第二指令集架构的目标指令(114),并且其中在所复制的目标指令中,在实施目标指令的过程中应当访问的存储区域由第二存储区域代替(115),并且其中目标指令和所复制的目标指令由微处理器(100)实施。利用本方法通过在一个处理器核心上(时间上)并行地实施目标指令实现时间上的冗余,以及通过在不同的处理器核心上并行地实施目标指令实现本地的或者局部的冗余。

    运行至少部分自动化的车辆的方法、设备和计算机程序

    公开(公告)号:CN110222813B

    公开(公告)日:2024-08-02

    申请号:CN201910154846.3

    申请日:2019-03-01

    Abstract: 本发明涉及运行至少部分自动化的车辆的方法、设备和计算机程序。本发明涉及一种用于运行至少部分自动化的车辆(10)的方法(30),该方法包括如下步骤:确定深度神经元网络的输出参量。深度神经元网络的输出参量根据所检测到的输入参量和多个表征深度神经元网络的参量以及至少一个激活函数(20)来确定。激活函数(20)将第一值域(21)的如下值线性地映射到第二值域(22)上,所述值在第一值域(21)的第一规定值(e)与第一值域(21)的第二规定值(a)之间。根据深度神经元网络的所确定的输出参量来操控车辆(10)。本发明还涉及一种用于实施该方法(30)的计算机程序和设备以及一种机器可读存储元件(12),在其上存储有该计算机程序。

    用于存储高效地运行神经网络的方法和设备

    公开(公告)号:CN110263910A

    公开(公告)日:2019-09-20

    申请号:CN201910179660.3

    申请日:2019-03-11

    Abstract: 本发明涉及一种用于运行具有神经网络、尤其卷积(convolutional)神经网络的计算系统(1)的方法,其中,所述计算系统具有用于所述神经网络的按顺序的计算的计算装置(2)和用于将在所述计算装置(2)中的所述计算的中间结果中间存储的相对于所述计算装置在外部的存储器(4),所述方法具有以下步骤:-借助神经网络逐步地计算(S2,S3)数据区段,所述数据区段分别表示中间结果的组,-有损耗地压缩(S5,S6,S7,S8)所述数据区段其中的一个或多个,以便获得经压缩的中间结果,并且-将所述经压缩的中间结果传输(S9)给所述外部存储器(4)。

    计算单元
    9.
    发明授权

    公开(公告)号:CN107423029B

    公开(公告)日:2024-04-19

    申请号:CN201710363750.9

    申请日:2017-05-22

    Abstract: 本发明涉及计算单元。提出了一种计算单元(2),其包括有流水线功能的具有第一存储元件(8)的第一计算内核(4)和有流水线功能的具有第二存储元件(10)的第二计算内核(6)。第一计算内核(4)被构造为开始对指令(14)的流水线处理,其中第二计算内核(6)被构造为开始对指令(14)的冗余的流水线处理。比较单元(20)被构造为确定所述第一存储元件(8)的第一状态(16)与所述第二存储元件(10)的第二状态(18)之间的偏差(CMP=0),其中所述第一和所述第二计算内核(4、6)被构造为在所述偏差(CMP=0)被确定时开始对指令(14)的重新的流水线处理。

    用于运行控制器的方法
    10.
    发明授权

    公开(公告)号:CN107526290B

    公开(公告)日:2022-05-31

    申请号:CN201710464055.1

    申请日:2017-06-19

    Abstract: 建议一种用于运行机动车的控制器(2)的方法。借助监视器单元(12)将状态询问(36)转达给在多核处理器(4)的第一计算核心(6)上构造的第一控制单元(24)。借助第一控制单元(24)根据所述状态询问(36)求出状态应答(34)。借助监视器单元(12)根据所述状态应答(34)查明故障(38)。

Patent Agency Ranking