-
公开(公告)号:CN104866295A
公开(公告)日:2015-08-26
申请号:CN201410065503.7
申请日:2014-02-25
Applicant: 华为技术有限公司 , 中国科学院计算技术研究所
IPC: G06F9/44
Abstract: 本发明实施例公开了一种OpenCL运行时系统框架的设计方法及装置,涉及信息技术领域,可以降低异构系统的平台开发复杂度。所述方法包括:首先将OpenCL运行时系统框架划分为功能层、优化层及平台层,平台层包括平台层中间表示IR、平台层实现框架及至少一个平台实现,然后向功能层及优化层提供平台层IR,并向至少一个平台实现提供平台层实现框架。本发明实施例适用于在异构系统中进行跨平台移植。
-
公开(公告)号:CN104731569A
公开(公告)日:2015-06-24
申请号:CN201310719857.4
申请日:2013-12-23
Applicant: 华为技术有限公司 , 中国科学院计算技术研究所
CPC classification number: G06F9/541
Abstract: 本发明实施例公开了一种数据处理方法及相关设备,实现Hadoop从节点设备中对数据自动转换数据格式和自动拼接,简化程序员的编程工作,有利于后续优化MapReduce架构。该方法主要包括:数据预处理器从所述CPU的第一缓冲区读取元数据;所述数据预处理器根据所述元数据所指示的存储地址从所述第一缓冲区读取所述数据集合的数据;所述数据预处理器根据预设解析函数,将所述数据集合的数据转换成所述预设解析函数所指示的数据格式,并将转换后的数据集合生成数据块后存储在所述CPU的第二缓冲区,以使得所述数据拼接器从所述第二缓冲区读取所述数据块拼接到所述GPU。
-
公开(公告)号:CN104239126A
公开(公告)日:2014-12-24
申请号:CN201310244090.4
申请日:2013-06-19
Applicant: 华为技术有限公司 , 中国科学院计算技术研究所
IPC: G06F9/46
Abstract: 本发明实施例提供了一种有向图的最小割获取方法和设备,通过具有依次包含关系的子图的形式对结点集合进行有向图最小割获取的方法和设备,减少了并行计算时的活跃结点间的通信次数和同步次数,提高了性能,其中该方法包括:按照预设策略,分别将有向图划分成至少两个汇点子图和至少两个源点子图;并行计算全部汇点子图的最小割集并通过汇点子图之间的通信获得有向图的等效汇点,以及并行计算全部源点子图的最小割集并通过源点子图之间的通信获得有向图的等效源点;根据有向图的等效汇点和有向图的等效源点连接的所有边获取有向图的最小割。
-
公开(公告)号:CN100377088C
公开(公告)日:2008-03-26
申请号:CN200510051448.7
申请日:2005-03-04
Applicant: 中国科学院计算技术研究所
IPC: G06F9/45
Abstract: 本发明公开了一种二进制翻译中对局部变量识别和提升的方法包括以下步骤:a、对翻译单元进行条件判别,判断在此翻译单元内能否进行局部变量的提升;b、依次对可处理翻译单元的每个基本块进行处理,对每条指令的局部变量进行识别;c、将b步骤中识别出来的局部变量进行提升,将识别出来的信息传播到整个翻译单元,并在必要的时候进行同步;本发明克服现有二进制翻译技术中局部变量不能和其他内存操作数区别对待的缺陷,通过对局部变量识别和提升,提高翻译质量和效果,从而提高二进制翻译的性能。
-
公开(公告)号:CN1755631A
公开(公告)日:2006-04-05
申请号:CN200410081020.2
申请日:2004-09-30
Applicant: 中国科学院计算技术研究所
IPC: G06F9/45
Abstract: 本发明公开了一种二进制翻译中的库函数调用处理方法,包括在目标机中用内存模拟原系统的寄存器和堆栈;应用目标机本地的约定进行传参和返回值处理,依次对原系统二进制程序中的每个基本块进行处理。本发明通过用目标机本地的约定进行传参和返回值处理,而不是去模拟原机器的调用约定,省去了将参数压入模拟原系统的模拟堆栈或寄存器,然后又从堆栈或寄存器中取出放入到目标机传参寄存器或堆栈中过程中频繁对内存的操作,提高了程序执行的效率,进而提高了系统翻译效率,提高了系统性能。
-
公开(公告)号:CN118819948A
公开(公告)日:2024-10-22
申请号:CN202410196164.X
申请日:2024-02-21
Applicant: 中国移动通信有限公司研究院 , 中国科学院计算技术研究所 , 中国移动通信集团有限公司
Abstract: 本申请实施例公开了一种信息处理方法,包括:获取第一神经网络模型的第一代码;对第一代码进行处理得到第二神经网络模型的第二代码,第一神经网络模型的精度高于第二神经网络模型;第一代码中包括标记的结果变量;若第一代码的结果变量的值与第二代码的结果变量的值的误差不满足第一目标阈值,基于第二代码对应的控制流图和目标动态依赖图确定第二代码中的目标代码,并采用目标修复算法对第二代码中的目标代码进行修复得到修复后的第二代码;其中,目标动态依赖图与第二代码相关;目标修复算法为与目标代码匹配的修复算法。本申请实施例还公开了一种信息处理装置、设备、计算机存储介质和计算机程序产品。
-
公开(公告)号:CN118312154A
公开(公告)日:2024-07-09
申请号:CN202410518261.6
申请日:2024-04-28
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种编译器生成方法、编译器、存储介质,该方法包含:收集待优化的用户应用程序;将该用户应用程序转换为目标机器无关的中间表示,将该目标机器无关的中间表示划分为多个微调区域;针对每一微调区域构建一优化确定型系统,该优化确定型系统使用程序图来描述该微调区域的优化过程;利用该优化确定型系统对大语言模型微调进行至少一次调优;基于调优后的大语言模型,生成一峰值性能可执行文件。该方法大大降低了高性能编译器开发的人工及时间成本,提高研发效率。
-
公开(公告)号:CN118312153A
公开(公告)日:2024-07-09
申请号:CN202410518260.1
申请日:2024-04-28
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种编译器后端代码生成方法、装置、存储介质,该方法其包括:将目标架构指令集手册构建为目标架构知识库;收集编译器已有后端代码并进行预处理;将预处理后的编译器已有后端代码分离为目标平台特性相关的目标相关代码、以及与目标平台特性无关的目标无关代码;将所述目标相关代码、所述目标无关代码分别与所述目标架构知识库结合,构建目标相关信息提取提示与代码生成提示;基于所述目标相关信息提取提示与所述代码生成提示,自动生成新目标平台的编译器后端代码。该方法提高了编译器后端的开发效率。
-
公开(公告)号:CN117725969A
公开(公告)日:2024-03-19
申请号:CN202311723455.1
申请日:2023-12-14
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063 , G06N3/082 , G06N3/0464
Abstract: 本发明提出一种面向人工智能处理器的数据预处理执行方法和系统,包括:获取待执行的数据预处理任务;根据该数据预处理任务的输入数据范围和算子,计算该算子在该输入数据范围内执行时的最大值,根据该最大值在人工智能处理器能执行的精度范围内选择该算子的缩放系数,以该缩放系数压缩该数据预处理任务的输入数据的精度,得到压缩数据,将该压缩数据输入该人工智能处理器执行该算子,将执行结果根据该缩放系数恢复为该输入数据的精度,得到该数据预处理任务的执行结果。
-
公开(公告)号:CN111738434B
公开(公告)日:2023-04-07
申请号:CN202010493830.8
申请日:2020-06-03
Applicant: 中国科学院计算技术研究所
IPC: G06N3/082 , G06N3/0464 , G06N3/063
Abstract: 本发明提供一种在异构处理单元上执行深度神经网络的方法,包括:通过算子性能模型预测深度神经网络中各个算子在不同异构处理单元上的运行时间和功耗,其中,所述算子性能模型是以不同算子和不同异构处理单元的组合为输入数据,以所述算子在所述不同异构处理单元上的运行时间和功耗为输出数据,通过训练获得;至少基于所述深度神经网络的结构图以及所述算子在所述不同异构处理单元上的运行时间和/或功耗确定所述算子的分配策略;以及依据所述算子的分配策略将所述算子分配到对应的异构处理单元并执行所述深度神经网络。
-
-
-
-
-
-
-
-
-