-
公开(公告)号:CN119225688A
公开(公告)日:2024-12-31
申请号:CN202411074815.4
申请日:2024-08-06
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本案涉及基于点缓存机制的多标量乘法加速方法及其硬件加速器,用于对多标量乘法中的点加运算进一步优化。所述方法针对多标量乘法中的点加运算存在重复的操作数(椭圆曲线上的点)的特点设计缓存机制,暂存已经计算完成的椭圆曲线点加运算结果,在当前参与点加运算的两个点在点缓存中已经存储时,即缓存命中,则略过当前点加运算并读取对应点缓存中的值作为当前点加的计算结果,从而实现有效减少多标量乘法计算过程中的点加运算次数,提高计算速度。根据所述方法设计硬件加速器,在增加额外有限的硬件开销下就可以有效提高计算速度。
-
公开(公告)号:CN118987626A
公开(公告)日:2024-11-22
申请号:CN202310566385.7
申请日:2023-05-18
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本发明公开了一种面向云渲染的客户端自动运行云游戏方法。该方法包括:针对不同的云端游戏类型,获取场景配置、人物角色相关的信息作为先验知识,所述先验知识包括场景配置信息、游戏策略、游戏规则和获胜规则;基于所述先验知识,编写测试脚本并结合虚拟鼠标和虚拟键盘,对云端游戏进行自动模拟,进而在目标应用平台上利用所述测试脚本多次测试云端游戏效果,其中每次运行测试脚本都设定一个期望测试效果,并根据用户需求更新测试效果,以获得云端游戏所需的预期效果。本发明实现了面向云渲染的客户端自动模拟云游戏运行并在各种游戏场景中操控游戏人物,可用于检测云端设备负载情况。
-
公开(公告)号:CN116266278A
公开(公告)日:2023-06-20
申请号:CN202111538761.9
申请日:2021-12-15
Applicant: 中国科学院深圳先进技术研究院
IPC: G06N3/063 , G06N3/049 , G06N3/0499 , G06F15/173 , G06F15/78
Abstract: 本发明涉及一种低成本低功耗脉冲神经网络加速器,在保证加速器具有可扩展性的情况下,进一步通过优化神经元的脉冲数据包,从而简化片上网络的路由器设计,可以达到减少硬件开销的目的。此外,通过设计高效的脉冲神经网络向加速器映射的部署方法,使得所有物理神经元并行工作且通过片上网络进行通信。本发明的脉冲神经网络加速器在降低硬件开销的优选实施方式下,更适用于对成本功耗敏感的嵌入式设备等。
-
公开(公告)号:CN116266135A
公开(公告)日:2023-06-20
申请号:CN202111538553.9
申请日:2021-12-15
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本发明公开了一种异步分布式训练系统及方法,所述系统包括组管理器和与组管理器网络连接的机器节点node1至noden,所述组管理器包括组生成单元、组清除单元和节点信息表;每一机器节点nodei被配置为基于本地数据集对模型进行迭代训练;所述组生成单元被配置为基于机器节点nodei的分组请求,根据预设的分组条件对机器节点nodei进行分组并反馈组信息;所述组清除单元被配置为基于机器节点nodei的释放请求清除机器节点nodei的组信息;所述节点信息表用于记录所述n个机器节点node1至noden的状态信息并能够被组生成单元和组清除单元共享;其中,n为2以上的整数,i=0~n。本发明可以缩减分布式训练的通讯等待时间,减少了分布式训练的整体时间,从而提升了分布式训练的性能。
-
公开(公告)号:CN116264578A
公开(公告)日:2023-06-16
申请号:CN202111527221.0
申请日:2021-12-14
Applicant: 中国科学院深圳先进技术研究院
IPC: H04L67/1097 , H04L67/14 , H04L67/56 , H04L9/40
Abstract: 本发明涉及电子信息技术领域,具体涉及一种服务器集群中ssh的连接方法及系统;其中连接方法应用在服务器集群中,当节点数量比较庞大时,往往不同节点之间无法进行ssh连接时。通过选定一个跳板节点,利用IPtable客户端代理在跳板节点可以方便的搭建ssh的直连通道,以满足服务器集群中多个节点之间ssh连接的需求。其对应的系统也具体同样的技术效果。
-
公开(公告)号:CN114880108A
公开(公告)日:2022-08-09
申请号:CN202111535943.0
申请日:2021-12-15
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本申请提供了一种基于CPU‑GPU异构架构的性能分析方法、设备以及存储介质。该基于CPU‑GPU异构架构的性能分析方法包括:获取预设的零知识证明性能分析模型,对零知识证明性能分析模型中的系数数值进行标定;将第一数据量,以及多组窗口大小和实际线程数的参数组合输入零知识证明性能分析模型;从零知识证明性能分析模型输出的多个总执行时间中选择出时间最短的总执行时间,及其对应的最优参数组合;基于最优参数组合设置CPU‑GPU异构架构的参数;其中,参数组合数量与总执行时间的数量相同。通过上述方式,本申请的性能分析方法通过提出一种零知识证明性能优化分析模型,对零知识证明算法进行性能预测,从而筛选出影响CPU‑GPU异构架构性能的最优参数组合。
-
公开(公告)号:CN114650288A
公开(公告)日:2022-06-21
申请号:CN202011399386.X
申请日:2020-12-02
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本发明提供了一种分布式训练方法及系统、终端设备及计算机可读存储介质,分布式训练方法包括:所述工作节点利用本地训练数据并根据初始模型参数对本地模型进行训练,获得本地模型的模型参数;所述工作节点根据所述本地模型的模型参数以及分组情况获得更新后的模型参数;将本轮训练获得的更新后的模型参数作为下一轮训练中的初始模型参数,循环执行多轮训练,直至满足训练停止条件时结束训练。本发明的分布式训练方法应用于由至少3个移动终端组成的分布式训练系统,从而避免现有的大型服务器上实现分布式机器学习导致的价格昂贵、能耗高、体积大、可移动性差的问题。
-
公开(公告)号:CN114565093A
公开(公告)日:2022-05-31
申请号:CN202011358511.2
申请日:2020-11-27
Applicant: 中国科学院深圳先进技术研究院
IPC: G06N3/08
Abstract: 本发明公开了一种基于参数分层的深度学习神经网络参数调优的方法。该方法包括:根据参数的语义进行分类和关联,并根据分层思想和每个参数的值域,随机生成一组初始参数;使用所述初始参数开始神经网络训练,并在训练过程中针对每个epoch,在迭代级别根据设定的提前终止条件决定生成待运行参数继续搜索或提前终止该次迭代;当满足设定的搜索结束条件时退出参数搜索,并将最小运行时间对应的可行参数作为神经网络的最优训练参数。本发明能够在保持最优训练参数性能的前提下,显著缩减搜索最优参数的时间。
-
公开(公告)号:CN113032033A
公开(公告)日:2021-06-25
申请号:CN201911234883.1
申请日:2019-12-05
Applicant: 中国科学院深圳先进技术研究院
IPC: G06F9/445
Abstract: 本发明提供一种大数据处理平台配置的自动优化方法。该方法根据以下步骤收集配置参数训练集:随机生成大数据处理平台的一组配置参数,运行该组配置参数,并对执行时间t进行监测,当执行时间t超过动态设置的最大准许时间Tmax时,终止运行;在配置参数运行过程中,根据执行时间t的波动情况确定是否退出收集配置参数训练集的过程;决定退出收集配置参数训练集的过程后,在所有运行成功的配置参数中选择执行时间最短的一组配置参数作为最优配置参数。本发明能够准确找出最优配置的前提下,显著缩短数据收集时间。
-
公开(公告)号:CN112559090A
公开(公告)日:2021-03-26
申请号:CN202011437005.2
申请日:2020-12-07
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本申请公开了一种应用程序运行时性能事件的收集方法,所述方法包括:在服务端内写入自动化脚本;利用自动化脚本调用应用程序配置脚本,并根据应用程序配置脚本下载待测应用程序;利用自动化脚本调用动作执行脚本,并根据动作执行脚本对待测应用程序执行相应的动作;利用自动化脚本调用系统追踪脚本及日志获取脚本,以获得待测应用程序进行相应的动作过程中的第一进程标识;利用自动化脚本调用动作执行脚本,以使得服务端采集第一进程标识的性能事件。通过上述方法,可以同时指定多个特定的应用程序进行安装,安装后可以自动运行指定的应用程序,并且可以单独定时执行相应的动作,提高了应用程序运行时收集性能事件的效率以及准确率。
-
-
-
-
-
-
-
-
-