一种雅克比模版计算加速方法、系统、介质及存储设备

    公开(公告)号:CN113255270B

    公开(公告)日:2024-04-02

    申请号:CN202110528889.0

    申请日:2021-05-14

    Abstract: 本发明公开了一种雅克比模版计算加速方法、系统、介质及存储设备,在雅克比模版计算的初始迭代状态,FPGA芯片分别运行第一类六边形分块计算内容;将各FPGA芯片的片上BU保存成Cell数据用于下一类迭代;进行第二类六边形分块运算,保存运算结果,将下次迭代所需的数据存入片上BU;重复以上步骤,分别迭代完成第一类六边形分块计算和第二类六边形分块计算,直到整个模版计算的时间轴内的迭代实例运算完毕,得到最终步数据OC;将最终步数据OC从各FPGA芯片的片上BU输出至片外BRAM,数据持久化后得到雅克比模版计算结果。本发明通过设计FPGA芯片板件数据共享策略,实现了模版计算的加速算法,有效提高了多FPGA芯片加速模版计算效率,有效减少了模版计算的耗时。

    一种性能驱动的多FPGA雅克比模版计算最优部署方法及系统

    公开(公告)号:CN113255269A

    公开(公告)日:2021-08-13

    申请号:CN202110528857.0

    申请日:2021-05-14

    Abstract: 本发明公开了一种性能驱动的多FPGA雅克比模版计算最优部署方法及系统,对雅克比模版计算进行六边形分块,使分块间的数据能够并行运算;对运行雅克比模版计算的N种FPGA芯片进行形式化描述,使用数学表示不同FPGA芯片的各项属性;利用六边形分块和形式化描述内容进行数学建模,确定模型的约束条件,根据FPGA芯片模型的总成本、资源占用与总耗时确定目标函数;对雅克比六边形分块的属性、FPGA芯片形式化描述内容、各项约束条件与目标函数内容进行编写,生成模型文件后优化得到最优结果,利用最优结果实现最优放置策略。本发明实现模版计算在多FPGA芯片上的最优放置,有效节省FPGA芯片资源浪费,实现模版计算的高效运行,进而节省模版计算的工程开支。

    一种基于两段式缓存的神经网络推理加速方法

    公开(公告)号:CN111427895A

    公开(公告)日:2020-07-17

    申请号:CN202010251314.4

    申请日:2020-04-01

    Abstract: 本发明公开了一种基于两段式缓存的神经网络推理加速方法,统计各个输入张量在数据集中出现的次数,根据出现的次数采用降序对各个输入张量进行排序,最后输出排序完成的输入张量排序数据集,构造静态缓存的数据结构,确定静态缓存的存入和读取方法;确定动态缓存中存储的基础单元,确定动态缓存的缓存替换方法;在神经网络被部署之前构建完成静态缓存,在神经网络部署时动态缓存为空,在神经网络运行中根据缓存替换方法存入、换出输入输出对,完成基于两段式缓存的神经网络推理加速。本发明充分考虑了神经网络推理过程中输入数据的特征,针对性地设计了两段式缓存算法和数据结构,避免了不必要的计算,降低了推理耗时,减少了服务成本。

    基于RBF神经网络的数据中心任务温度预测及调度方法

    公开(公告)号:CN109375994A

    公开(公告)日:2019-02-22

    申请号:CN201811050796.6

    申请日:2018-09-10

    Abstract: 本发明公开了一种基于RBF神经网络的数据中心任务温度预测及调度方法,采用RBF神经网络建立任务温度预测模型;建立温控负载均衡模块,确定服务器的安全温度和警戒温度并与任意服务器Si进行判断选择;通过监控反馈模块实时监控并反馈服务器运行温度给温控负载均衡模块,由温控负载均衡模块进行调度控制。本发明通过主动的温度预测来进行任务调度,比只基于反馈温度来决定任务调度的方法要有更好的灵活性。通过设置在不同温度范围的两种主动的调度策略,达到减少能耗,并且保证数据中心安全运行的目的。

    一种基于两段式缓存的神经网络推理加速方法

    公开(公告)号:CN111427895B

    公开(公告)日:2022-10-25

    申请号:CN202010251314.4

    申请日:2020-04-01

    Abstract: 本发明公开了一种基于两段式缓存的神经网络推理加速方法,统计各个输入张量在数据集中出现的次数,根据出现的次数采用降序对各个输入张量进行排序,最后输出排序完成的输入张量排序数据集,构造静态缓存的数据结构,确定静态缓存的存入和读取方法;确定动态缓存中存储的基础单元,确定动态缓存的缓存替换方法;在神经网络被部署之前构建完成静态缓存,在神经网络部署时动态缓存为空,在神经网络运行中根据缓存替换方法存入、换出输入输出对,完成基于两段式缓存的神经网络推理加速。本发明充分考虑了神经网络推理过程中输入数据的特征,针对性地设计了两段式缓存算法和数据结构,避免了不必要的计算,降低了推理耗时,减少了服务成本。

    一种基于分区参照技术的FPGA配置文件压缩解压方法

    公开(公告)号:CN111427857B

    公开(公告)日:2022-10-25

    申请号:CN202010251320.X

    申请日:2020-04-01

    Abstract: 本发明公开了一种基于分区参照技术的FPGA配置文件压缩解压方法,定义FPGA配置文件fi=(h,d,r),i=1,2,3,…,n,头部信息h包含工程名称、编译时间和目标芯片型号信息;配置数据信息d包含目标芯片内各类资源的二进制编码;尾部冗余信息r包含若干空指令操作,对FPGA配置文件进行分区;采用不同的压缩策略对头部信息h、配置数据信息d和尾部冗余信息r进行压缩解压操作。本发明将FPGA配置文件按照功能进行分区,针对不同分区设计相应压缩解压策略,并且在大规模神经网络协同处理时需一次性传输多FPGA配置文件的应用场景,分析配置文件间重复信息,采用参照压缩的方法进一步提高压缩率。

    一种基于神经网络模型的FPGA配置文件算术压缩与解压方法

    公开(公告)号:CN111431540B

    公开(公告)日:2021-10-08

    申请号:CN202010251333.7

    申请日:2020-04-01

    Abstract: 本发明公开了一种基于神经网络模型的FPGA配置文件算术压缩与解压方法,定义FPGA配置文件的内容序列,将任意符号在其前k项数据确定下的条件概率分布作为算术编码过程中对应符号的概率;采用神经网络模型估计FPGA配置文件中各项符号的概率;采用算术编码,使用建立的神经网络对预测的FPGA配置文件各符号概率进行算术编码压缩;对FPGA配置文件进行解压缩。本发明使用神经网络模型进行配置文件序列数据的概率估计,并使用该估计结果对FPGA配置文件进行压缩及解压的方法,解决了FPGA配置过程耗时过长问题。

    一种动态可重构FPGA的布局方法

    公开(公告)号:CN108256182B

    公开(公告)日:2020-10-27

    申请号:CN201810002611.8

    申请日:2018-01-02

    Abstract: 本发明公开了一种动态可重构FPGA的布局方法,构建FPGA动态可重构系统的计算资源,采用位示图法对FPGA的计算资源进行管理,建立单个硬件任务Tn的任务模型,在FPGA在线布局过程中,利用FF Reshaped‑Task‑Model调度模型对任务模型进行变形,完成布局。本发明在FPGA在线布局的过程中引入任务模型可变的策略,在首次布局失败的情况下,对在线任务的形状进行改变,并重新调度布局算法,由于任务的形状可以变化,增加了任务的灵活性,提高了布局时任务的可选择性,从而提高了任务布局成功率,提高了FPGA资源的利用率。

Patent Agency Ranking