-
公开(公告)号:CN111445026B
公开(公告)日:2023-08-22
申请号:CN202010180260.7
申请日:2020-03-16
Applicant: 东南大学
IPC: G06N5/04 , G06N3/0464 , G06N3/08
Abstract: 本发明公开一种面向边缘智能应用的深度神经网络多路径推理加速方法,首先分析深度神经网络各层设置提前退出分支出口的分类能力与计算成本,选择推理效益最大的出口组合添加至原模型;然后在出口与主干层之间设置门限单元并加以训练,判断任务是否能在当前出口退出;对于无法在终端层提前退出而必须传输至边缘层的任务,压缩其中间特征数据;最后在边缘计算环境下在线监测分析网络负载和终端、边缘设备的计算能力,以最小化推理时延为目标对多路径模型进行切割,模型切块分别部署在终端层与边缘层,最终形成多路径推理加速框架。此种方法能够提高推理的灵活性,保证准确率,降低推理总时延,满足边缘智能应用的实时性与高精度需求。
-
公开(公告)号:CN116415694A
公开(公告)日:2023-07-11
申请号:CN202111662439.7
申请日:2021-12-31
Applicant: 中国移动通信有限公司研究院 , 东南大学 , 中国移动通信集团有限公司
IPC: G06N20/20
Abstract: 本申请公开一种联邦学习处理方法及装置、终端和服务端,涉及计算机处理技术领域,以解决现有方案难以取得训练效率与收敛增益之间平衡的问题。该方法包括:获取N个终端在第t轮联合训练中的训练信息,训练信息包括训练数据集信息、训练时间信息和收敛贡献值;根据训练数据集信息、训练时间信息和收敛贡献值,确定多目标优化参数,多目标优化参数包括训练闲余时间和收敛贡献和;以最小化训练闲余时间为第一优化目标,以最大化收敛贡献和为第二优化目标,确定N个终端中各终端的目标训练迭代次数;分别向N个终端发送各自目标训练迭代次数。本申请实施例可在提高联邦学习训练时间效率与提高终端全局收敛增益之间达到平衡化。
-
公开(公告)号:CN115437795A
公开(公告)日:2022-12-06
申请号:CN202211386085.2
申请日:2022-11-07
Applicant: 东南大学
Abstract: 本发明公开了一种异构GPU集群负载感知的显存重计算优化方法及系统,针对异构GPU集群环境下流水线训练显存需求,刻画出其训练执行过程中计算时间、GPU显存总量、显存占用等相应指标,并将其作为负载感知的显存重计算优化方法的输入,建立显存重计算优化模型,计算各GPU上显存负载百分比,确定所有阶段中显存负载最高的阶段,根据最小化显存开销算法进行重计算优化,保证各阶段负载均衡,提升整体吞吐率,本发明提出最小化负载最高阶段显存开销算法与平衡异构GPU各阶段开销算法,减少异构GPU集群环境下流水线训练的显存占用,同时最小化显存优化开销,更好地支持大模型的训练。
-
公开(公告)号:CN114117918A
公开(公告)日:2022-03-01
申请号:CN202111426929.7
申请日:2021-11-28
Applicant: 东南大学 , 江苏省未来网络创新研究院
IPC: G06F30/27 , G06N3/04 , G06N3/08 , G06F111/04 , G06F119/06 , G06F119/08
Abstract: 本发明提供一种温度约束下的终端设备异构处理器推断加速方法,针对工业生产环境下配备多个异构处理器的智能终端设备,解决深度神经网络层间异构、处理器异构和环境温度导致的终端设备推断效率低的问题。本发明首先考虑工业生产的环境温度和终端设备处理器功率,建立了温度约束下的终端设备动态频率模型,并使用温度感知的动态频率算法设定设备频率;然后,根据深度神经网络中不同层的计算方式和结构特性,设计了深度神经网络单层并行方法;最后,利用终端设备中的异构处理器,设计了面向异构处理器的深度神经网络单层计算任务分配方法,保障了终端设备异构处理器协同推断的低延迟和鲁棒性。
-
公开(公告)号:CN112784968A
公开(公告)日:2021-05-11
申请号:CN202110134151.6
申请日:2021-01-29
Applicant: 东南大学
Abstract: 本发明提供一种加速深度神经网络分布式训练的混合流水线并行方法,主要解决传统GPU集群分布式训练过程中资源利用不充分,无法实现高效分布式训练的问题。本发明的核心机制主要包含三个部分,分别是深度学习模型刻画、模型混合划分与混合流水线并行划分。本发明首先针对深度学习应用在GPU训练过程中的资源需求,刻画出其训练过程中计算量、中间结果通信数量、参数同步量等相应指标,并将其作为模型混合划分与任务放置的输入。然后根据模型刻画结果和GPU集群的环境,设计两个基于动态规划的划分算法,实现模型混合划分与混合流水线并行划分,目的是最小化划分之后各阶段任务执行时间的最大值,以确保负载均衡,实现深度神经网络的高效分布式训练。
-
公开(公告)号:CN110347500A
公开(公告)日:2019-10-18
申请号:CN201910525863.3
申请日:2019-06-18
Applicant: 东南大学
IPC: G06F9/50
Abstract: 本发明公开一种用于边缘计算环境中面向深度学习应用的任务卸载方法,首先将深度神经网络划分为若干个模型分块,采集系统中的相关数据并分析相应的特征;将得到的特征数据作为输入参数,建立M/M/n排队模型,得到终端设备层和边缘服务器层的平均任务数的期望,及任务在终端设备上开始执行以及将任务直接卸载到边缘服务器上开始执行的任务完成时间期望;以上述两个期望的最小最大值为目标函数,构建最小化任务执行时间的优化模型;使用启发式算法求解优化模型,得到最优卸载方案。此种方法能够实现针对不同的深度学习应用提出多模式,细粒度的个性化任务卸载方案,最小化任务完成时间,提高终端设备的资源利用率,从而满足高精度、低延迟的应用需求。
-
公开(公告)号:CN106470242A
公开(公告)日:2017-03-01
申请号:CN201610809567.2
申请日:2016-09-07
Applicant: 东南大学 , 焦点科技股份有限公司
IPC: H04L29/08
CPC classification number: H04L67/10 , H04L67/1097
Abstract: 本发明公开了一种云数据中心大规模异构集群节点快速定量分级方法,本发明逻辑上主要包括三个部分,分别是集群节点性能参数预处理、集群节点性能参数矩阵标定和集群节点性能参数软聚类。本发明首先针对云数据中心集群节点中各种不同量纲级的性能参数进行采集量化并做标准化处理;然后对标准化后的集群节点性能参数值进行标定,基于标定值引入相似系数法建立云数据中心中所有集群节点的性能参数模糊相似矩阵;最后基于传递闭包法对得到的模糊相似矩阵进行改造,使其变成模糊等价矩阵,并在适当的截距水平上对其进行截取,最终得到大规模集群节点性能参数聚类图。为云数据中心后续的数据布局、能耗优化等管理提供节点性能参照依据。
-
公开(公告)号:CN102394934B
公开(公告)日:2015-08-26
申请号:CN201110349179.8
申请日:2011-11-08
Applicant: 东南大学
Abstract: 本发明涉及服务计算领域,提出了一种基于效益折扣和议题关联的Web服务双边协商模型,引入讨价还价模型中的折扣率,提出协商参与者效益的计算方法,动态描述了协商参与者的得益情况;利用讨价还价模型改进传统协商中的协商协议和协商过程,综合时间代价、对手提议、协商管理者MA建议这几个方面计算和实现协商策略;引入协商管理者参与协商过程,从全局协调和监管协商流程;提出了协商议题关联度的概念,将大部分协商议题转化为简单的易于实现的线性求解方式,降低多维协商的维数和协商复杂度,同时采用联合协商方式求解有关联的协商议题,保证了协商结果的准确度。
-
公开(公告)号:CN102780753B
公开(公告)日:2015-08-05
申请号:CN201110349574.6
申请日:2011-11-08
Applicant: 东南大学
IPC: H04L29/08
Abstract: 本发明涉及服务计算领域,尤其涉及一种基于约束规则的服务恢复方法。当业务事务中异常被捕获到,首先通过对约束规则的评估来确定合理的恢复策略,将前向恢复与后向恢复相结合,并加入了与用户交互的步骤,使用户参与到业务事务的恢复过程中;其次为了充分利用异常出现时的服务实时状态信息,本发明提出根据异常属性约束及上下文对业务事务异常的分类方法,根据分类以确定恢复开始点;本发明提出补偿路径的概念,并根据补偿服务的前置条件及上下文选择可行的补偿路径实例;最后本发明利用用户对不同开销的敏感权值来选择最优的补偿路径实例。实验分析表明利用约束规则提高了恢复策略的成功率及效率。
-
公开(公告)号:CN104092756A
公开(公告)日:2014-10-08
申请号:CN201410326861.9
申请日:2014-07-09
Applicant: 东南大学 , 焦点科技股份有限公司
Inventor: 东方 , 罗军舟 , 其他发明人请求不公开姓名
IPC: H04L29/08
Abstract: 本发明公开了一种基于DHT机制的云存储系统的资源动态分配方法,该方法包括以下步骤:步骤1)根据终端用户对云存储系统访问情况,云存储系统对用户访问请求量、访问请求状态、访问性能以及系统中服务器状态数据进行实时监控,获得监控数据;步骤2)对步骤1)实时采集的数据进行分析,判断系统运行过程中,资源供给是否满足目标性能水平;步骤3)构建资源分配模型,然后根据资源分配模型,进行资源分配。该方法利用排队网络分析服务性能水平和资源使用情况,以保证服务器的服务性能,并降低的资源使用成本。
-
-
-
-
-
-
-
-
-