-
公开(公告)号:CN115470362A
公开(公告)日:2022-12-13
申请号:CN202211223975.1
申请日:2022-10-06
Applicant: 东南大学
IPC: G06F16/36 , G06F16/9537 , G06F16/9535 , G06Q10/06 , G06K9/62 , G06F17/18 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于城市时空知识图谱的兴趣点实时推荐方法,旨在为用户提供将来其最有可能访问的兴趣点列表,包括三个部分:城市时空知识图谱构建模块、图谱实体特征学习与用户长短期偏好提取模块、和用户推荐结果生成模块;以城市时空知识图谱为基础,图谱融合了多源城市数据,以兴趣点为中心,辅以各种城市多源数据,用动态图的方式有效表征了实体语义信息和城市时空信息。本发明基于时空城市知识图谱,学习了兴趣点、类别、品牌等实体随着时间推移的动态特征,并且从图谱中提取用户长短期偏好,最后基于学习到的实体特征和用户偏好,生成兴趣点推荐列表,将得分排名前n个兴趣点推荐给用户。
-
公开(公告)号:CN115437795A
公开(公告)日:2022-12-06
申请号:CN202211386085.2
申请日:2022-11-07
Applicant: 东南大学
Abstract: 本发明公开了一种异构GPU集群负载感知的显存重计算优化方法及系统,针对异构GPU集群环境下流水线训练显存需求,刻画出其训练执行过程中计算时间、GPU显存总量、显存占用等相应指标,并将其作为负载感知的显存重计算优化方法的输入,建立显存重计算优化模型,计算各GPU上显存负载百分比,确定所有阶段中显存负载最高的阶段,根据最小化显存开销算法进行重计算优化,保证各阶段负载均衡,提升整体吞吐率,本发明提出最小化负载最高阶段显存开销算法与平衡异构GPU各阶段开销算法,减少异构GPU集群环境下流水线训练的显存占用,同时最小化显存优化开销,更好地支持大模型的训练。
-
公开(公告)号:CN114117918A
公开(公告)日:2022-03-01
申请号:CN202111426929.7
申请日:2021-11-28
Applicant: 东南大学 , 江苏省未来网络创新研究院
IPC: G06F30/27 , G06N3/04 , G06N3/08 , G06F111/04 , G06F119/06 , G06F119/08
Abstract: 本发明提供一种温度约束下的终端设备异构处理器推断加速方法,针对工业生产环境下配备多个异构处理器的智能终端设备,解决深度神经网络层间异构、处理器异构和环境温度导致的终端设备推断效率低的问题。本发明首先考虑工业生产的环境温度和终端设备处理器功率,建立了温度约束下的终端设备动态频率模型,并使用温度感知的动态频率算法设定设备频率;然后,根据深度神经网络中不同层的计算方式和结构特性,设计了深度神经网络单层并行方法;最后,利用终端设备中的异构处理器,设计了面向异构处理器的深度神经网络单层计算任务分配方法,保障了终端设备异构处理器协同推断的低延迟和鲁棒性。
-
公开(公告)号:CN114064280A
公开(公告)日:2022-02-18
申请号:CN202111381192.1
申请日:2021-11-20
Applicant: 东南大学 , 中移(成都)信息通信科技有限公司
Abstract: 本发明提出了一种多约束下的端边协同推断方法,该方法包括两个阶段,分别为端边协同推断模型分割阶段和在线动态调整阶段。其中,端边协同推断模型分割阶段能够在端边协同推断环境中,在智能终端设备能耗、内存大小等约束下,综合考虑智能终端设备和边缘设备的计算能力,对深度神经网络进行模型分割;在线动态调整阶段能够自适应调整模型分割位置,以适应端边协同推断环境中的动态变化。并针对多约束下的端边协同推断机制中的两个阶段,建立了端边协同推断数学模型,并提出了相应的求解算法。
-
公开(公告)号:CN112784968A
公开(公告)日:2021-05-11
申请号:CN202110134151.6
申请日:2021-01-29
Applicant: 东南大学
Abstract: 本发明提供一种加速深度神经网络分布式训练的混合流水线并行方法,主要解决传统GPU集群分布式训练过程中资源利用不充分,无法实现高效分布式训练的问题。本发明的核心机制主要包含三个部分,分别是深度学习模型刻画、模型混合划分与混合流水线并行划分。本发明首先针对深度学习应用在GPU训练过程中的资源需求,刻画出其训练过程中计算量、中间结果通信数量、参数同步量等相应指标,并将其作为模型混合划分与任务放置的输入。然后根据模型刻画结果和GPU集群的环境,设计两个基于动态规划的划分算法,实现模型混合划分与混合流水线并行划分,目的是最小化划分之后各阶段任务执行时间的最大值,以确保负载均衡,实现深度神经网络的高效分布式训练。
-
公开(公告)号:CN110688492B
公开(公告)日:2020-12-08
申请号:CN201910910212.6
申请日:2019-09-25
Applicant: 东南大学
IPC: G06F16/36 , G06F16/9035 , G06F16/9038 , G06F16/31 , G06F16/901
Abstract: 本发明公开了一种基于轻量级图索引的关于电影知识图谱的查询方法。本发明以无权无向图存储电影关系,图的顶点表示电影或者电影人物,边表示电影人物与电影之间的关系。在构建图索引时,先从具有最多电影关系的电影或电影人物中选取种子,并为每个种子计算L维向量以表示其特征,基于此推算出所有的特征,并保存在索引中。在执行查询时,从给定电影或电影人物出发,依次查找与其相关的电影或电影人物,如果找到满足查询条件的电影或电影人物,则选其为候选结果,最后,基于轻量级图索引进一步筛选候选结果,选择最优的k个结果作为最终的查询结果返回给用户。
-
公开(公告)号:CN112784968B
公开(公告)日:2024-12-03
申请号:CN202110134151.6
申请日:2021-01-29
Applicant: 东南大学
Abstract: 本发明提供一种加速深度神经网络分布式训练的混合流水线并行方法,主要解决传统GPU集群分布式训练过程中资源利用不充分,无法实现高效分布式训练的问题。本发明的核心机制主要包含三个部分,分别是深度学习模型刻画、模型混合划分与混合流水线并行划分。本发明首先针对深度学习应用在GPU训练过程中的资源需求,刻画出其训练过程中计算量、中间结果通信数量、参数同步量等相应指标,并将其作为模型混合划分与任务放置的输入。然后根据模型刻画结果和GPU集群的环境,设计两个基于动态规划的划分算法,实现模型混合划分与混合流水线并行划分,目的是最小化划分之后各阶段任务执行时间的最大值,以确保负载均衡,实现深度神经网络的高效分布式训练。
-
公开(公告)号:CN118968385A
公开(公告)日:2024-11-15
申请号:CN202411138995.8
申请日:2024-08-19
Applicant: 东南大学
IPC: G06V20/40 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/088
Abstract: 本发明提供了一种用于小样本学习的长序列动作识别方法,旨在解决传统基于Transformer的方法在处理长序列时面临的高计算复杂度问题,同时改进局部特征建模和时序对齐的能力,并缓解类内差异积累对模型性能的负面影响。本发明主要包括三个核心部分:特征提取模块、Mamba分支模块和对比学习模块。针对传统Mamba方法在小样本动作识别中的局限性,本发明提出了一种多尺度的Matryoshka Mamba模型。该模型通过内模块增强局部特征的表达能力,并通过外模块实现局部特征的精确对齐。此外,本发明还提出了一种混合对比学习方法,用以有效缓解同类别长序列的类内差异积累对小样本动作识别性能的负面影响。本发明在提升小样本学习效率的同时,显著提高了长序列动作识别的准确性和鲁棒性。
-
公开(公告)号:CN114661466B
公开(公告)日:2024-07-12
申请号:CN202210275145.7
申请日:2022-03-21
Applicant: 东南大学
Abstract: 本发明公开了一种用于边缘计算环境中面向智能工作流应用的任务卸载方法,首先针对边缘系统构建边缘环境模型,并将每个终端需要执行的工作流刻画成有向无环图(DAG);然后对终端需要执行的智能工作流任务构建任务卸载模型,根据基于拓扑排序的平均执行时间计算方法将DAG序列化;之后根据终端的优化目标定义最大化用户体验(QoE)问题,其中用户体验由任务执行延时以及执行智能任务所使用的模型精度决定。最后基于多智能体强化学习对DAG任务卸载的优化问题进行求解,并将网络的输出结果作为DAG中子任务的卸载决策。本发明考虑了终端卸载的理性决策以及多终端之间的资源竞争,很大程度地提升终端执行智能工作流任务的用户体验。
-
公开(公告)号:CN114662661B
公开(公告)日:2024-04-16
申请号:CN202210282401.5
申请日:2022-03-22
Applicant: 东南大学
IPC: G06N3/0464 , G06N3/08
Abstract: 本发明公开一种边缘计算下异构处理器加速多出口DNN(Deep Neural Networks)推理的方法,首先针对不同负载下的CPU与GPU,分别统计深度神经网络各层在CPU、GPU上的计算成本、各层提前退出分支出口的分类能力以及各网络层中间数据量大小;然后分析数据,得出特定负载情况下,将深度神经网络各层分配给CPU(GPU)处理器的最优并行组合模型;最后在终端设备上在线监测分析CPU、GPU的负载情况、以及当前的计算能力,以最小化推理时延为目标对深度神经网络推理任务进行切分,任务切块分别被分配在GPU与CPU,最终形成基于异构处理器的推理加速框架。此种方法能够提高推理的灵活性,保证准确率,降低推理总时延,满足边缘智能应用的实时性与高精度需求。
-
-
-
-
-
-
-
-
-