-
公开(公告)号:CN113448425B
公开(公告)日:2022-09-09
申请号:CN202110810963.8
申请日:2021-07-19
Applicant: 哈尔滨工业大学
IPC: G06F1/3234 , G06F9/50 , G06N20/00
Abstract: 一种基于强化学习的动态并行应用程序能耗运行时优化方法及系统,属于并行程序能耗优化技术领域,目的是自动地优化并行应用程序的能耗,并且不需要领域专家知识,对程序是透明的。本发明的技术要点包括:程序的阶段根据工作负载的特征,分为计算密集阶段和内存密集阶段,根据应用程序不同的实时工作负载特征,动态调整处理器功率配置,使硬件功率配置文件与运行时动态变化的程序阶段匹配;通过强化学习算法自动探索功率配置空间,根据环境反馈的奖惩信息,不断优化配置空间;最后,根据自动学习到的策略动态调整功率配置以匹配不断变化的程序阶段。本发明实现了自动且动态的并行程序
-
公开(公告)号:CN107463430A
公开(公告)日:2017-12-12
申请号:CN201710656895.8
申请日:2017-08-03
Applicant: 哈尔滨工业大学
IPC: G06F9/455
Abstract: 本发明涉及虚拟机内存管理领域,具体涉及一种基于内存和Swap空间的虚拟机内存动态管理系统及方法,本发明为了解决现有的虚拟机内存调度算法在使用Swap空间时会造成系统性能损耗,并且在虚拟机内存监控中仅使用带内监控,使得虚拟机运行性能降低、安全隐患高的缺点,而提出一种基于内存和Swap空间的虚拟机内存动态管理系统及方法。本发明的系统包括设置在特权域中的监控模块、计算模块以及执行模块,其中监控模块用于向虚拟机发出待读取数据的地址,并接收虚拟机返回的待读取数据;还用于将待读取数据发送至计算模块。计算模块用于计算应当为虚拟机分配的目标内存大小。执行模块用于根据目标内存大小,调节虚拟机的内存。本发明适用于内存动态管理工具。
-
公开(公告)号:CN111797985B
公开(公告)日:2022-11-22
申请号:CN202010710031.1
申请日:2020-07-22
Applicant: 哈尔滨工业大学
Abstract: 一种基于GPU的卷积运算内存访问优化方法,涉及卷积运算访存优化技术。本发明能够解决现有技术的卷积运算访存开销较大的缺陷。技术要点:将卷积核数据加载至共享内存中;将卷积输出以32列为单位分割成子块,得到若干个包含32列数据的子块以及1个少于32列数据的子块;每个线程计算该线程所需要的第一个数据的索引;每个线程通过列重用算法从所述第一个数据的索引中获取剩余所需的输入数据,并将获取的输入数据传递给行重用算法;经过行重用算法计算输出结果并存储在寄存器数据sum中;并将sum写入全局内存;计算卷积输出中其余待计算的数据。本发明用于对图像处理、视频处理和机器学习领域中的卷积运算进行访存优化。
-
公开(公告)号:CN106250686B
公开(公告)日:2018-11-02
申请号:CN201610599836.7
申请日:2016-07-27
Applicant: 哈尔滨工业大学
Abstract: 一种并行程序的集合通信函数建模方法,本发明涉及并行程序的集合通信函数建模方法。本发明的目的是为了解决现有技术对通信时间数据获取不准确、耗费大量时间金钱的缺点。一种并行程序的集合通信函数建模方法具体过程为:步骤一、在实验平台下测量集合通信函数N次,获得集合通信函数在不同的并行度和数据量下的通信时间数据;步骤二、用基于BP反向传播算法的人工神经网络对集合通讯函数在不同的并行度和数据量下的通信时间数据进行拟合,得到相应的通信函数的神经网络模型。本发明用于通信技术领域。
-
公开(公告)号:CN106250686A
公开(公告)日:2016-12-21
申请号:CN201610599836.7
申请日:2016-07-27
Applicant: 哈尔滨工业大学
Abstract: 一种并行程序的集合通信函数建模方法,本发明涉及并行程序的集合通信函数建模方法。本发明的目的是为了解决现有技术对通信时间数据获取不准确、耗费大量时间金钱的缺点。一种并行程序的集合通信函数建模方法具体过程为:步骤一、在实验平台下测量集合通信函数N次,获得集合通信函数在不同的并行度和数据量下的通信时间数据;步骤二、用基于BP反向传播算法的人工神经网络对集合通讯函数在不同的并行度和数据量下的通信时间数据进行拟合,得到相应的通信函数的神经网络模型。本发明用于通信技术领域。
-
公开(公告)号:CN105183651A
公开(公告)日:2015-12-23
申请号:CN201510579026.0
申请日:2015-09-11
Applicant: 哈尔滨工业大学
IPC: G06F11/36
Abstract: 用于程序自动性能预测的视点提升方法,属于程序性能预测领域。现有的程序自动性能预测方法存在难以在保证预测精度的同时确定最大预测性的问题。一种用于程序自动性能预测的视点提升方法,步骤一、定义基本块N执行次数的视点V,则利用二元组表示的基本块频率为(Ev,BV,N);步骤二、对二元组表示的基本块频率(Ev,BV,N)中的视点V的实际运行次数Ev的量进行提升操作;步骤三、确定视点V中预测到基本块N的频率BV,N;步骤四、定义基本块N的频率BN=Ev×BV,N;步骤五、得到视点V在一次运行中总的基本块频率为本发明具有在保证精度的同时确定合适的插入位置,结合静态分支概率提高预测性的优点。
-
公开(公告)号:CN110399182B
公开(公告)日:2023-05-12
申请号:CN201910680644.2
申请日:2019-07-25
Applicant: 哈尔滨工业大学
IPC: G06F9/448 , G06F9/52 , G06F18/2411
Abstract: 一种CUDA线程放置优化方法,涉及基于机器学习的线程优化技术。本发明的目的是提供一种CUDA线程放置优化方法,以实现降低编程人员工作难度以及减少训练数据的获取时间的目的。技术要点:程序信息采集、程序信息处理、机器学习模型训练,程序信息处理是对静态信息和程序运行时信息进行信息汇总、数值化处理、归一化处理得到训练集程序特征,并利用程序执行时间信息集设置标签从而完成标签数据的生成;将训练集程序特征和标签数据作为输入,利用支持向量机算法进行性能建模,得到程序性能预测模型;在线程优化放置应用时,首先需调用程序信息采集模块,采集待优化程序的程序信息,然后输入已训练好的程序性能预测模型,即可获得合适的线程块设置方案。
-
公开(公告)号:CN113448425A
公开(公告)日:2021-09-28
申请号:CN202110810963.8
申请日:2021-07-19
Applicant: 哈尔滨工业大学
IPC: G06F1/3234 , G06F9/50 , G06N20/00
Abstract: 一种基于强化学习的动态并行应用程序能耗运行时优化方法及系统,属于并行程序能耗优化技术领域,目的是自动地优化并行应用程序的能耗,并且不需要领域专家知识,对程序是透明的。本发明的技术要点包括:程序的阶段根据工作负载的特征,分为计算密集阶段和内存密集阶段,根据应用程序不同的实时工作负载特征,动态调整处理器功率配置,使硬件功率配置文件与运行时动态变化的程序阶段匹配;通过强化学习算法自动探索功率配置空间,根据环境反馈的奖惩信息,不断优化配置空间;最后,根据自动学习到的策略动态调整功率配置以匹配不断变化的程序阶段。本发明实现了自动且动态的并行程序能耗优化,并且该运行时优化系统的开销可以忽略不计。
-
公开(公告)号:CN107463430B
公开(公告)日:2020-10-02
申请号:CN201710656895.8
申请日:2017-08-03
Applicant: 哈尔滨工业大学
IPC: G06F9/455
Abstract: 本发明涉及虚拟机内存管理领域,具体涉及一种基于内存和Swap空间的虚拟机内存动态管理系统及方法,本发明为了解决现有的虚拟机内存调度算法在使用Swap空间时会造成系统性能损耗,并且在虚拟机内存监控中仅使用带内监控,使得虚拟机运行性能降低、安全隐患高的缺点,而提出一种基于内存和Swap空间的虚拟机内存动态管理系统及方法。本发明的系统包括设置在特权域中的监控模块、计算模块以及执行模块,其中监控模块用于向虚拟机发出待读取数据的地址,并接收虚拟机返回的待读取数据;还用于将待读取数据发送至计算模块。计算模块用于计算应当为虚拟机分配的目标内存大小。执行模块用于根据目标内存大小,调节虚拟机的内存。本发明适用于内存动态管理工具。
-
公开(公告)号:CN105183650A
公开(公告)日:2015-12-23
申请号:CN201510578801.0
申请日:2015-09-11
Applicant: 哈尔滨工业大学
IPC: G06F11/36
Abstract: 基于LLVM的科学计算程序自动性能预测方法,属于程序性能预测技术领域。本发明的目的是实现科学计算程序的自动化分析,提高静态分析的精确性,同时能够最后给出程序预测的时间。技术要点:将预测的源程序转化为LLVM中的中间代码bitcode;分析中间代码bitcode获得识别通讯指令MPI的调用、循环次数、静态分支概率;对所述中间代码bitcode进行混合插桩;对进行混合插桩后的中间代码bitcode进行代码删减以优化处理;运行经优化处理后中间代码bitcode得到llvmprof.out文件;分析llvmprof.out文件结合指令时间预测执行时间。本发明方法适用于科学计算程序的性能预测。
-
-
-
-
-
-
-
-
-