基于NUMA架构的时变图处理方法、电子设备、介质

    公开(公告)号:CN115774800A

    公开(公告)日:2023-03-10

    申请号:CN202310095896.5

    申请日:2023-02-10

    Abstract: 本发明公开了一种基于NUMA架构的时变图处理方法、电子设备、介质,所述方法将顶点在不同快照上的若干副本组织成顶点组,并设计基于顶点组的时变图数据结构;采用时变图分割方法将顶点组分配存储至不同NUMA节点;再进行时变图处理,包括:依次对每个NUMA节点进行聚合计算,在每轮聚合计算的过程中,每个NUMA节点的每个顶点组向下一个NUMA节点发送聚合请求,下一个NUMA节点完成聚合任务后,再向其下一个NUMA节点发送聚合请求,直到所有NUMA节点都完成聚合,其中,每个NUMA节点对应的所有顶点组被并行执行。本发明方法有效减少了远程NUMA节点的随机访问次数,使时变图计算的内存访问效率得到显著提升。

    一种用于神经网络编译的内存优化方法及装置

    公开(公告)号:CN115269204B

    公开(公告)日:2022-12-30

    申请号:CN202211177784.6

    申请日:2022-09-27

    Abstract: 本发明公开了一种用于神经网络编译的内存优化方法和装置,包括如下步骤:步骤1、将神经网络编译为用于神经网络计算的计算图;步骤2、将计算图转换为拓扑图;步骤3、构建关于计算图包含变量生命周期的区间图;步骤4、分析关于计算图节点包含张量变量互相之间的生命周期的关系;本发明提供了一种面向神经网络编译生成的计算图中数据流的内存分配的优化方法,解决了深度学习操作系统在编译阶段为运行时流过计算图中各节点的张量变量预分配内存的问题。本发明提供了一种计算图各节点包含的张量变量之间生命周期关系的分析方法,并通过分析张量变量的生命周期关系提供了一种为计算图节点包含张量变量分配内存的优化方法。

    一种用于神经网络编译的内存优化方法及装置

    公开(公告)号:CN115269204A

    公开(公告)日:2022-11-01

    申请号:CN202211177784.6

    申请日:2022-09-27

    Abstract: 本发明公开了一种用于神经网络编译的内存优化方法和装置,包括如下步骤:步骤1、将神经网络编译为用于神经网络计算的计算图;步骤2、将计算图转换为拓扑图;步骤3、构建关于计算图包含变量生命周期的区间图;步骤4、分析关于计算图节点包含张量变量互相之间的生命周期的关系;本发明提供了一种面向神经网络编译生成的计算图中数据流的内存分配的优化方法,解决了深度学习操作系统在编译阶段为运行时流过计算图中各节点的张量变量预分配内存的问题。本发明提供了一种计算图各节点包含的张量变量之间生命周期关系的分析方法,并通过分析张量变量的生命周期关系提供了一种为计算图节点包含张量变量分配内存的优化方法。

    一种用于图计算的指令执行方法及装置

    公开(公告)号:CN115269016A

    公开(公告)日:2022-11-01

    申请号:CN202211177797.3

    申请日:2022-09-27

    Abstract: 本发明公开了一种用于图计算的指令执行方法及装置,包括以下步骤:步骤S1:将用于神经网络计算的计算图中每个节点的算子下发到算子解释器;步骤S2:算子解释器构建运行时的指令;步骤S3:定义指令依赖关系;步骤S4:构建指令依赖关系图;步骤S5:构建并行指令的拓扑顺序;步骤S6:将并行指令调度到硬件资源上;步骤S7:构建并行指令的最短调度:在硬件资源限制的条件下并行指令执行所需的最短时间;步骤S8:释放已经执行完的指令。本发明从全局角度分析计算图执行过程中节点所包含指令之间的依赖关系以及基于依赖关系推导全局计算图中可并行执行指令的拓扑顺序,提供了将并行指令最快地调度到硬件资源上的方法和装置,优化了计算图的编译效率。

    一种针对未配对数据集的图像生成方法及装置

    公开(公告)号:CN114758035B

    公开(公告)日:2022-09-27

    申请号:CN202210661703.3

    申请日:2022-06-13

    Abstract: 本发明公开了一种针对未配对数据集的图像生成方法及装置,该方法包括:对第一模型和第二模型进行改进,其中所述第二模型包括第一子模型和第二子模型;将两组内部具有相同数据分布的未配对数据集作为改进后的第一模型的输入,训练改进后的第一模型,并通过改进后的第一模型训练完成后输出的两组配对数据集分别训练改进后的第一子模型和第二子模型;获取未配对数据集;将所述未配对数据集输入训练后的第一模型后,得到所述第一模型生成的第一生成数据集和第二生成数据集;将所述第一生成数据集和第二生成数据集分别输入训练后的第一子模型和第二子模型,并将所述第一子模型和第二子模型生成的第三生成数据集和第四生成数据集作为最终生成结果。

    一种可组装的分布式计算和存储系统及其构造方法

    公开(公告)号:CN112804297B

    公开(公告)日:2022-08-19

    申请号:CN202011599244.8

    申请日:2020-12-30

    Abstract: 本发明公开了一种可组装的分布式计算和存储系统及其构造方法,包括:一个以上域服务器,用于计算服务或存储服务;网络交换单元,负责将域服务器连接形成分布式计算和存储系统;域服务器包括:对象处理单元,采用多核构造处理器线程组,负责域服务器内网络连接,并通过高级语言编程提供管理控制和数据处理;计算单元,提供计算能力;内存单元,用于动态随机存储器;持久化内存单元,用于非易失内存;存储单元,提供持久化存储;多个计算单元、多个内存单元、多个非易失内存单元、多个存储单元,分别通过网络交换单元连接形成计算池、内存池、非易失内存池、存储池;一个或多个域服务器通过网络交换单元连接形成分布式计算和存储系统。

    一种基于中心相似度学习的哈希码生成方法及装置

    公开(公告)号:CN114896434A

    公开(公告)日:2022-08-12

    申请号:CN202210821230.9

    申请日:2022-07-13

    Abstract: 本发明公开了一种基于中心相似度学习的哈希码生成方法及装置,该方法包括:获取带有标签的训练数据集;利用哈达玛矩阵,为所述训练数据集中相同标签的数据构造一个共享的哈希中心,从而得到若干哈希中心;根据所述训练数据集中的样本经过多模态神经网络生成的哈希码与该数据对应的哈希中心之间的距离,计算得到中心相似性学习的目标损失函数;根据所述中心相似性学习的目标损失函数,训练多模态神经网络;获取多模态数据并对所述多模态数据进行预处理;将预处理后的多模态数据输入训练后的多模态神经网络中,生成多模态哈希码。

    一种面向神经网络模型计算的图执行方法和装置

    公开(公告)号:CN114237918B

    公开(公告)日:2022-05-27

    申请号:CN202210183223.0

    申请日:2022-02-28

    Abstract: 本发明公开了一种面向神经网络模型计算的图执行方法和装置,包括根据深度学习框架编译生成的物理计算图,创建本机上的任务执行体,通过设计为每个任务执行体分配多个空闲内存块的方案,实现整张计算图以流水并行的方式同时参与到不同批次数据的深度学习训练任务中,本发明公开的面向神经网络模型计算的图执行方法和装置,以算子核函数的执行体为基本单元,以生产和消费的张量作为整个计算图中流动的数据,执行体以流水并行的方式实现模型的训练过程。在大规模深度神经网络的分布式应用场景下,本发明对用户的使用门槛较低,并且能够使模型学习到大量分批次流入神经网络的数据的内在关联,从而获得对应场景中的“智能”感知与判断能力。

    一种加密图的邻居节点查询方法及装置、电子设备

    公开(公告)号:CN114417073A

    公开(公告)日:2022-04-29

    申请号:CN202210309856.1

    申请日:2022-03-28

    Abstract: 本发明公开了一种加密图的邻居节点查询方法及装置、电子设备,该方法包括:提取每个节点的邻居节点,生成邻居节点表;根据邻居节点表和生成的密钥组,生成加密索引字典;对加密索引字典进行扩充,将扩充索引字典发送至云服务器以使得云服务器对扩充索引字典进行存储;接收用户端的关于目标节点的查询请求;根据查询请求和密钥组,生成目标节点的查询令牌;向用户端发送查询令牌和密钥组,以使得用户端向云服务器发送查询令牌,云服务器根据查询令牌和扩充索引字典,对目标节点的邻居节点进行查询,将查询结果发送至用户端,用户端根据密钥组对查询结果进行解密,从而得到目标节点的明文查询结果。该方法可实现top‑H跳邻居节点和top‑k邻居节点的查询。

    文本情感分类方法及装置、电子设备、存储介质

    公开(公告)号:CN113849592B

    公开(公告)日:2022-04-08

    申请号:CN202111441129.2

    申请日:2021-11-30

    Inventor: 曾令仿 陈志广

    Abstract: 本发明涉及情感识别技术领域,公开了一种文本情感分类方法及装置、电子设备、存储介质,该方法包括:将待情感分类的文本输入到训练好的情感分类模型中,得到情感分类结果;其中所述训练好的情感分类模型,包括:词向量化处理模块,用于对文本进行词向量化处理,得到词KEY、QUERY和VALUE矩阵;辅助数组构建模块,用于根据文本的长度,构建辅助数组;第一计算模块,用于根据辅助数组,对所述KEY与QUERY矩阵中的有效块相乘,将有效块相乘的结果写入到QK中;第二计算模块,用于根据辅助数组,将QK与VALUE矩阵中的有效块相乘,将有效块相乘的结果写入到得到词与词的依赖关系矩阵;映射模块,用于根据依赖关系矩阵得到词与词的依赖关系矩阵与情感分析结果的映射。

Patent Agency Ranking