-
公开(公告)号:CN116166336A
公开(公告)日:2023-05-26
申请号:CN202310136701.7
申请日:2023-02-20
Applicant: 东南大学
Abstract: 本发明公开了一种用于边缘计算环境中面向多视角推理应用的任务卸载方法,属于边缘计算和深度学习领域。本发明的核心逻辑包括:首先构建边缘环境下多视角推理任务的执行框架并合理划分和部署多视角推理模型;然后采集边缘计算环境中计算资源与通信资源的性能特征;接着结合边缘环境下多视角推理任务执行框架构建最小化任务完成时间的优化模型;最后提出多视角推理的任务卸载算法,最小化任务的执行时间,进而满足低时延的应用需求。本发明主要解决多视角推理任务特殊的执行模式导致在传统任务卸载方法下多视角推理任务执行中出现算力或带宽较强终端等待算力或带宽较弱终端的问题,以及其导致终端资源利用率低,多视角推理任务执行效率受限的问题。
-
公开(公告)号:CN110347500B
公开(公告)日:2023-05-23
申请号:CN201910525863.3
申请日:2019-06-18
Applicant: 东南大学
IPC: G06F9/50
Abstract: 本发明公开一种用于边缘计算环境中面向深度学习应用的任务卸载方法,首先将深度神经网络划分为若干个模型分块,采集系统中的相关数据并分析相应的特征;将得到的特征数据作为输入参数,建立M/M/n排队模型,得到终端设备层和边缘服务器层的平均任务数的期望,及任务在终端设备上开始执行以及将任务直接卸载到边缘服务器上开始执行的任务完成时间期望;以上述两个期望的最小最大值为目标函数,构建最小化任务执行时间的优化模型;使用启发式算法求解优化模型,得到最优卸载方案。此种方法能够实现针对不同的深度学习应用提出多模式,细粒度的个性化任务卸载方案,最小化任务完成时间,提高终端设备的资源利用率,从而满足高精度、低延迟的应用需求。
-
公开(公告)号:CN115437795B
公开(公告)日:2023-03-24
申请号:CN202211386085.2
申请日:2022-11-07
Applicant: 东南大学
Abstract: 本发明公开了一种异构GPU集群负载感知的显存重计算优化方法及系统,针对异构GPU集群环境下流水线训练显存需求,刻画出其训练执行过程中计算时间、GPU显存总量、显存占用等相应指标,并将其作为负载感知的显存重计算优化方法的输入,建立显存重计算优化模型,计算各GPU上显存负载百分比,确定所有阶段中显存负载最高的阶段,根据最小化显存开销算法进行重计算优化,保证各阶段负载均衡,提升整体吞吐率,本发明提出最小化负载最高阶段显存开销算法与平衡异构GPU各阶段开销算法,减少异构GPU集群环境下流水线训练的显存占用,同时最小化显存优化开销,更好地支持大模型的训练。
-
公开(公告)号:CN115577797A
公开(公告)日:2023-01-06
申请号:CN202211273252.2
申请日:2022-10-18
Applicant: 东南大学 , 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室)
Abstract: 本发明提供一种基于噪声感知的联邦学习优化方法及系统,解决联邦学习场景中客户端本地数据集的样本存在噪声而导致的全局模型精度下降的问题。本发明首先针对联邦学习中客户端本地数据集的样本噪声现象,提出使用标签冲突矩阵来表示数据噪声,然后使用标签矫正网络(LCN)拟合噪声数据集中的标签冲突概率分布,从而达到对噪声样本错误标签值的矫正效果;为了更有效的实现标签矫正网络和联邦学习模型的训练,本发明提出采用元学习的训练模式来实现同步优化;最后,本发明还提出了一种基于交叉验证的数据采样算法,从原始噪声数据集选择出一批带有相对正确标签的数据样本,从而提升LCN模型的标签矫正效果,最终提高联邦学习中训练模型的精度。
-
公开(公告)号:CN114661466A
公开(公告)日:2022-06-24
申请号:CN202210275145.7
申请日:2022-03-21
Applicant: 东南大学
Abstract: 本发明公开了一种用于边缘计算环境中面向智能工作流应用的任务卸载方法,首先针对边缘系统构建边缘环境模型,并将每个终端需要执行的工作流刻画成有向无环图(DAG);然后对终端需要执行的智能工作流任务构建任务卸载模型,根据基于拓扑排序的平均执行时间计算方法将DAG序列化;之后根据终端的优化目标定义最大化用户体验(QoE)问题,其中用户体验由任务执行延时以及执行智能任务所使用的模型精度决定。最后基于多智能体强化学习对DAG任务卸载的优化问题进行求解,并将网络的输出结果作为DAG中子任务的卸载决策。本发明考虑了终端卸载的理性决策以及多终端之间的资源竞争,很大程度地提升终端执行智能工作流任务的用户体验。
-
公开(公告)号:CN111817971A
公开(公告)日:2020-10-23
申请号:CN202010534449.1
申请日:2020-06-12
Applicant: 东南大学
IPC: H04L12/801 , H04L12/803 , G06N3/04
Abstract: 本发明公开了一种基于深度学习的数据中心网络流量拼接方法,步骤:初始化网络流量拼接的孪生神经网络模型;根据一段时间内采集到的流量信息,选择具有代表性的流量特征,形成样本,利用该样本训练孪生神经网络模型;对需要拼接的流量提取流量特征并输入训练好的孪生神经网络模型,确定能够拼接在一起的流量,并完成流量拼接。本发明优化了数据中心网络流量特征选择方法,提升了被选特征的代表性和鲁棒性,并使用深度学习算法构建网络流量拼接模型,提升了流量拼接的精度。
-
公开(公告)号:CN111445026A
公开(公告)日:2020-07-24
申请号:CN202010180260.7
申请日:2020-03-16
Applicant: 东南大学
Abstract: 本发明公开一种面向边缘智能应用的深度神经网络多路径推理加速方法,首先分析深度神经网络各层设置提前退出分支出口的分类能力与计算成本,选择推理效益最大的出口组合添加至原模型;然后在出口与主干层之间设置门限单元并加以训练,判断任务是否能在当前出口退出;对于无法在终端层提前退出而必须传输至边缘层的任务,压缩其中间特征数据;最后在边缘计算环境下在线监测分析网络负载和终端、边缘设备的计算能力,以最小化推理时延为目标对多路径模型进行切割,模型切块分别部署在终端层与边缘层,最终形成多路径推理加速框架。此种方法能够提高推理的灵活性,保证准确率,降低推理总时延,满足边缘智能应用的实时性与高精度需求。
-
公开(公告)号:CN111315041A
公开(公告)日:2020-06-19
申请号:CN202010090248.7
申请日:2020-02-13
Applicant: 东南大学
Abstract: 本发明公开了一种支持LoRaWAN协议的全双工LoRa网关结构,其中上行LoRa通信模块可以接收LoRa终端节点发送的上行数据包,将上行数据包发送至ARM主控模块,ARM主控模块,接收上行LoRa通信模块中收到的上行数据包,将上行数据包递交给LoRa服务器,并接收LoRa服务器发送的下行数据包,并根据下行数据包的下行要求信息,确定下行时机,根据下行时机将下行数据包下发至第一下行LoRa通信模块或者第二下行LoRa通信模块,使第一下行LoRa通信模块和第二下行LoRa通信模块,分别用于在相应下行时机发送下行数据包;以实现支持LoRaWAN协议的全双工LoRa网关的精度和可靠性的提升。
-
公开(公告)号:CN109905329A
公开(公告)日:2019-06-18
申请号:CN201910007824.4
申请日:2019-01-04
Applicant: 东南大学
IPC: H04L12/851 , H04L12/863 , H04L12/865 , H04L12/911
Abstract: 本发明公开了一种虚拟化环境下任务类型感知的流队列自适应管理方法,该方法包含:(1)接收来自管理员的指令,若为流调度策略移除指令,则开始流调度移除功能,若该命令为流调度策略部署指令,则开始流调度策略部署功能;(2)基于不同流的元数据信息感知任务类型,判断流所属的任务类型是否为带宽敏感型或是延迟敏感型;(3)在虚拟化层将不同类型任务的流映射到内核模块中不同的Qdisc队列,实现对不同类型任务的流的网络传输性能的隔离和管理;(4)实时统计不同任务类型的流负载情况,根据负载对不同队列之间的传输权重进行自适应调整和优化。该方法能够感知任务类型并对流队列进行自适应管理,有效提高虚拟化环境下任务的网络传输性能。
-
公开(公告)号:CN104092756B
公开(公告)日:2017-07-28
申请号:CN201410326861.9
申请日:2014-07-09
Applicant: 东南大学 , 焦点科技股份有限公司
Inventor: 东方 , 罗军舟 , 其他发明人请求不公开姓名
IPC: H04L29/08
Abstract: 本发明公开了一种基于DHT机制的云存储系统的资源动态分配方法,该方法包括以下步骤:步骤;1)根据终端用户对云存储系统访问情况,云存储系统对用户访问请求量、访问请求状态、访问性能以及系统中服务器状态数据进行实时监控,获得监控数据;步骤2)对步骤1)实时采集的数据进行分析,判断系统运行过程中,资源供给是否满足目标性能水平;步骤3)构建资源分配模型,然后根据资源分配模型,进行资源分配。该方法利用排队网络分析服务性能水平和资源使用情况,以保证服务器的服务性能,并降低的资源使用成本。
-
-
-
-
-
-
-
-
-