基于众核系统的指令处理方法、系统及电子设备

    公开(公告)号:CN119668691A

    公开(公告)日:2025-03-21

    申请号:CN202411876307.8

    申请日:2024-12-18

    Inventor: 张伟豪 樊素红

    Abstract: 本公开提供了一种基于众核系统的指令处理方法、系统及电子设备,该方法包括:第二处理核将存储的共享指令数据发送至第一处理核;所述第一处理核将所述共享指令数据分别与所述第一处理核中存储的多个私有指令数据进行组合,得到多个复合程序指令,并通过所述第一处理核运行所述多个复合程序指令;其中,所述多个复合程序指令复用所述共享指令数据。该方式通过将多个核之间可复用的共享指令数据仅存储在第二处理核(即指令供给核)中,并在使用时传输至第一处理核(即指令使用核),从而能够避免占用第一处理核的存储空间,提升数据存储的效率,使众核系统利用有限的存储空间能够处理更多且更复杂的指令数据,从而提升众核系统的性能。

    指令处理方法及装置、电子设备、计算机可读存储介质

    公开(公告)号:CN119668689A

    公开(公告)日:2025-03-21

    申请号:CN202411875637.5

    申请日:2024-12-18

    Inventor: 张伟豪 沈兵

    Abstract: 本公开提供了一种指令处理方法及装置、电子设备、计算机可读存储介质,该方法包括:根据多个地址寄存器中存储的多个地址信息,获取当前待处理的复合程序指令的多个指令片段;其中,所述多个地址寄存器中存储的多个地址信息根据预先配置的指令更新程序动态更新;对所述多个指令片段进行组合处理,得到所述当前待处理的复合程序指令;其中,所述当前待处理的复合程序指令为目标程序中的任一指令,且所述目标程序中的多个复合程序指令复用相同的指令片段。该方式通过设计指令更新程序,能够避免相同的指令片段冗余存储的问题,从而节约存储空间,节省了存储开销。

    数据处理方法及装置、电子设备、计算机可读存储介质

    公开(公告)号:CN119067190A

    公开(公告)日:2024-12-03

    申请号:CN202411203829.1

    申请日:2024-08-29

    Inventor: 张伟豪 刘发强

    Abstract: 本公开提供了数据处理方法及装置、电子设备、计算机可读存储介质,该方法包括,在网络模型的训练过程中,对所述网络模型的第一目标层的第一输出数据进行丢弃操作,获得待传输数据,其中,所述丢弃操作表征对所述第一输出数据中部分位置的数据取值置0,所述待传输数据表征所述第一输出数据中未被置0的数据;将所述待传输数据发送至所述网络模型的第二目标层;通过所述第二目标层,根据所述待传输数据,以及所述待传输数据在所述第一输出数据中对应位置,对所述待传输数据进行处理,这样,可以降低传输资源占用和消耗,并且能够保证数据处理的准确性。

    数据压缩方法及装置、电子设备、计算机可读存储介质

    公开(公告)号:CN118381512B

    公开(公告)日:2024-08-23

    申请号:CN202410637790.8

    申请日:2024-05-22

    Inventor: 刘发强 张伟豪

    Abstract: 本公开实施例提供了一种数据压缩方法及装置、电子设备、计算机可读存储介质,该数据压缩方法包括:根据待压缩数据的取值分布规则确定待压缩数据中取值分布占比大于占比阈值的目标数据;待压缩数据取值分布不均匀;基于目标数据大小确定存储空间大小要求;根据存储空间大小要求对待压缩数据进行至少一次分解,获取多组分解数据;至少一组分解数据大小均小于或等于存储空间大小要求;根据每组分解数据的数量对每组分解数据进行抛弃或采用相应的存储方式存储。该实施例方案增大了稠密化存储的信息量与存储量的比值,提高压缩效率,为霍夫曼编码序列并行解码提供了技术基础,从而有利于降低解码延迟,提高在大模型带宽压缩等场景中的解码速度。

    任务映射的方法、电子设备、计算机可读介质

    公开(公告)号:CN116382894A

    公开(公告)日:2023-07-04

    申请号:CN202310184473.0

    申请日:2023-02-24

    Abstract: 本公开提供了一种任务映射的方法,用于映射由众核系统运行的任务,所述众核系统包括多个相互连接的处理核,每个所述处理核包括处理单元和存储空间,所述方法包括:确定所述任务的映射方案,以及确定缓冲方案;所述映射方案表征将所述任务分为多个子任务并分别加载至对应的所述处理核;所述缓冲方案表征至少部分所述处理核的至少部分所述存储空间在所述任务运行的至少部分阶段为缓冲空间,所述缓冲空间用于暂存传输中的目标数据,任意所述缓冲空间暂存的所述目标数据的源头和目的地都不是该缓冲空间所在的所述处理核。本公开还提供了一种电子设备、计算机可读介质。

    神经网络量化方法及装置、电子设备、介质

    公开(公告)号:CN114912584A

    公开(公告)日:2022-08-16

    申请号:CN202210589141.6

    申请日:2022-05-26

    Inventor: 曲环宇 张伟豪

    Abstract: 本公开提供了一种神经网络量化方法及装置、电子设备、介质,该方法包括:分别对神经网络中待量化的神经网络单元进行量化,得到目标神经网络单元;针对待量化的任一神经网络单元,将神经网络单元在时间维度上展开,确定神经网络单元的多个时间步的静态数据;对多个时间步的静态数据分别进行量化处理,获得对应的量化数据;对多个时间步的量化数据进行压缩处理,获得多个时间步的共享数据;其中,共享数据的数据量少于静态数据的数据量;将共享数据对应的神经网络单元作为目标神经网络单元。根据本公开的实施例能够降低量化的难度,提高神经网络的精度。

    图像处理、密钥生成、训练方法及装置、计算机可读介质

    公开(公告)号:CN112733173A

    公开(公告)日:2021-04-30

    申请号:CN202110061953.9

    申请日:2021-01-18

    Inventor: 施路平 张伟豪

    Abstract: 本公开提供了一种图像处理方法,包括:根据神经网络密钥和第一图像生成第二图像,其中,所述神经网络密钥携带用户的需求信息;所述需求信息表征用户通过识别神经网络进行图像处理的需求;将所述第二图像输入所述识别神经网络进行处理;在所述神经网络密钥为伪装密钥的情况下,得到伪装结果;在所述神经网络密钥非伪装密钥的情况下,得到真实结果。本公开还提供一种密钥生成方法、一种训练方法、一种图像处理装置、一种密钥生成装置、一种计算机可读介质。

    一种数据处理方法及装置

    公开(公告)号:CN109726798B

    公开(公告)日:2021-04-13

    申请号:CN201811613619.4

    申请日:2018-12-27

    Abstract: 本发明实施例公开了一种数据处理方法及装置。在本发明实施例中,响应于第一卷积层接收到的第一图像帧的待处理数据为非冗余数据,所述第一卷积层对所述第一图像帧的待处理数据进行处理,其中,所述非冗余数据为所述第一卷积层尚未处理的所述待处理数据中的图像帧,由此,可以使得卷积神经网络在执行时序数据处理任务时,避免卷积神经网络中的卷积层对部分数据的重复处理,由此,可以减小卷积神经网络的计算量和存储。

    一种基于行缓冲Linebuffer的并行计算方法及计算设备

    公开(公告)号:CN111832713A

    公开(公告)日:2020-10-27

    申请号:CN201910317455.9

    申请日:2019-04-19

    Abstract: 本发明提供了一种基于行缓冲Linebuffer的并行计算方法及计算设备,应用于模板计算结构,所述方法包括:确定模板计算对象;根据所述模板计算对象的模板参数和计算单元的个数构建行缓冲Linebuffer的预设模板;通过所述行缓冲Linebuffer的预设模板将模板数据同时传输至所述多个计算单元,由每一个所述计算单元并行处理各自的计算任务。本发明提供的方法由行缓冲Linebuffer的预设模板同时获取多个计算单元执行计算所需要的模板数据,进而由多个计算单元同步执行计算,相较于传统的方案来讲计算效率更高,且速度更快。

    任务处理方法及装置、电子设备、存储介质

    公开(公告)号:CN119883634A

    公开(公告)日:2025-04-25

    申请号:CN202411976531.4

    申请日:2024-12-30

    Inventor: 鲁明胜 张伟豪

    Abstract: 本公开提供了任务处理方法及装置、电子设备、存储介质,该方法包括:获取众核系统中待处理的计算任务,所述众核系统包括多个处理核;所述计算任务为在目标计算场景中当前任务处理层的上一个任务处理层通过计算实时得到的,所述目标计算场景中包括具有数据连接关系的多个任务处理层;根据所述计算任务的时延要求和第一数据量,从时间维度上将所述计算任务拆分为多条计算指令,并从空间维度上确定为所述计算任务分配的处理核组,多条所述计算指令用于指示所述计算任务的执行逻辑;根据所述计算指令,将所述计算任务映射到所述处理核组,以使所述处理核组处理所述计算任务,这样,能够高效适配不同大小的计算任务,提高计算资源利用率。

Patent Agency Ranking