一种基于终端设备和边缘服务器协同进行视频流处理的方法

    公开(公告)号:CN110851255B

    公开(公告)日:2022-04-15

    申请号:CN201911080332.4

    申请日:2019-11-07

    Abstract: 本发明公开一种基于终端设备和边缘服务器协同进行视频流处理的方法,所述的视频流处理划分为数据预处理、深度神经网络推理和结果处理三个阶段,终端设备的计算任务分为数据预处理TP、数据传输TD_t、神经网络推理TI、结果接收TR_r和结果处理TF,边缘服务器的计算任务分为数据接收ED_r、深度神经网络推理EI,结果传输ER_t,所述的视频预处理采用流水化方式进行任务调度,终端设备按照任务优先级,根据空闲状态执行计算任务,边缘服务器也根据任务优先级的顺序执行;其中,终端设备承担任务的优先级从高到低排序为:TR_r>TD_t>TF>TP=TI;边缘服务器承担任务的优先级从高到低排序为:ED_r>EI>ER_t。该方法在发挥边缘服务器强大算力的同时,提高了计算效率。

    一种基于AI芯片的多模型并行推理方法

    公开(公告)号:CN112783650A

    公开(公告)日:2021-05-11

    申请号:CN202110075174.4

    申请日:2021-01-20

    Abstract: 本发明公开一种基于AI芯片的多模型并行推理方法。采用的技术方案包括以下步骤:步骤一:模型转换,至少将Tensorflow/Caffe AI框架训练的模型通过转换工具转换为AI芯片可解析的OM模型;步骤二:加载转换的OM模型,并遵循AscendCL库接口,采用线程方式并行执行多个模型推理。优点如下:针对单一推理模型并不能高效利用AI芯片(如华为公司的Ascend 310芯片)的算力的不足问题,以充分挖掘Ascend 310芯片的算力,研究多模型并行推理,同时能够保持良好的性能。

    边缘场景下基于容器的可扩展分布式双队列动态分配方法

    公开(公告)号:CN112463293A

    公开(公告)日:2021-03-09

    申请号:CN202011295965.X

    申请日:2020-11-18

    Abstract: 本发明公开了边缘场景下基于容器的可扩展分布式双队列动态分配方法,包括如下步骤:S1,获取视频流数据;S2,网关服务从视频流数据中获取视频帧,并从空闲服务器队列中挑选集群内的空闲服务器处理视频帧;S3,空闲服务器上的推理服务对视频帧进行深度神经网络推理和结果处理,完成后上报网关服务当前服务器已空闲;S4,网关服务将上报空闲的服务器重新加入空闲服务器队列。组成集群进行统一深度神经网络推理的服务器协同计算模式,相比于传统的单路视频流对应单路服务器的计算模式而言,充分利用了服务器的剩余计算资源,可以将多个服务器的剩余计算资源进行整合,完成更多路视频流处理。

    一种与机器学习框架解耦的容错训练方法及装置

    公开(公告)号:CN119918621A

    公开(公告)日:2025-05-02

    申请号:CN202510404733.X

    申请日:2025-04-02

    Abstract: 本说明书公开了一种与机器学习框架解耦的容错训练方法及装置。在本说明书提供的机器学习框架解耦的容错训练方法中,可以在定位到发生异常的异常从节点后,将异常从节点从训练网络出剔除,并选择合适的备援从节点补充异常从节点的空缺,快速构建新的重构训练网络,重新执行未完成的训练,自动快速地重启训练任务,减少不必要的用户工作量;同时,本方法在执行过程中与机器学习训练框架解耦,能够以最小的代码侵入成本实现,大幅降低了学习与应用时需要的成本。

    一种模型训练方法、一种任务执行时间预测方法及装置

    公开(公告)号:CN119623548A

    公开(公告)日:2025-03-14

    申请号:CN202411553118.7

    申请日:2024-11-01

    Abstract: 本说明书公开了一种模型训练方法、一种任务执行时间预测方法及装置,具体包括:根据历史模型训练任务的历史资源占用数据,筛选出相似历史模型训练任务。将历史模型训练任务和相似历史模型训练任务的历史资源占用数据输入预测模型,使得其确定出历史模型训练任务对应的资源占用特征数据,从而确定历史模型训练任务对应的预测执行时长。根据预测执行时长和历史任务执行时长进行训练。训练后的预测模型根据目标模型训练任务的资源占用数据,确定目标模型训练任务的预测执行时长。本说明书中的方法预测效率更高且更加精准。进而使得后续资源分配时有效提升训练资源的利用率,避免资源浪费和搁置的同时,也极大程度上提高了整体训练过程的训练效率。

    一种基于AI芯片的多模型并行推理方法

    公开(公告)号:CN112783650B

    公开(公告)日:2024-01-16

    申请号:CN202110075174.4

    申请日:2021-01-20

    Abstract: 本发明公开一种基于AI芯片的多模型并行推理方法。采用的技术方案包括以下步骤:步骤一:模型转换,至少将Tensorflow/Caffe AI框架训练的模型通过转换工具转换为AI芯片可解析的OM模型;步骤二:加载转换的OM模型,并遵循AscendCL库接口,采用线程方式并行执行多个模型推理。优点如下:针对单一推理模型并不能高效利用AI芯片(如华为公司的Ascend 310芯片)的算力的不足问题,以充分挖掘Ascend 310芯片的算力,研究多模型并行推理,同时能够保持良好的性能。

    一种支持隐私保护的区块链监管方法及系统

    公开(公告)号:CN116232652A

    公开(公告)日:2023-06-06

    申请号:CN202211649227.X

    申请日:2022-12-21

    Abstract: 本发明公开了一种支持隐私保护的区块链监管方法及系统,本发明包括云服务消费者CSC将加密数据dC'、加密私钥skC”及隐私要求pr上链;云服务提供者CSP将隐私策略pp上链,云服务提供者CSP发起解密请求;区块链运行智能合约基于隐私要求pr以及隐私策略pp进行隐私合规性检查,通过则同意云服务提供者CSP将加密数据dC'解密为数据dC,处理(计算或存储)为数据dP并加密后上链;云服务消费者CSC下载解密得到数据dP。本发明能够实现监管审计与隐私保护功能,具有不易篡改、可以追溯、抵抗风险、强化隐私等优点,对于兼顾监管与隐私保护需求、构建高效可靠的云际计算监管机制具有重要意义。

    一种任务执行的方法、装置、存储介质及电子设备

    公开(公告)号:CN116107708A

    公开(公告)日:2023-05-12

    申请号:CN202310137025.5

    申请日:2023-02-09

    Abstract: 本说明书公开了一种任务执行的方法、装置、存储介质及电子设备。该任务执行的方法包括:获取计算任务,并对计算任务进行划分,得到至少两个子任务,在各子任务中确定出目标任务,并将目标任务发送给至少两个客户端,针对每个客户端,判断该客户端完成所述目标任务所用的时间是否超过预设时间,若否,将该客户端对目标任务的计算结果作为候选结果,在至少部分客户端对应的候选结果中确定出互相匹配的各候选结果,作为目标结果,并判断目标结果的数量是否大于预设数量,若是,将目标结果作为目标任务对应的计算结果,并根据各子任务对应的计算结果确定计算任务对应的计算结果,以根据计算任务对应的计算结果执行任务。

    面向异构计算设备的深度学习图像分类方法及装置

    公开(公告)号:CN115249315B

    公开(公告)日:2023-02-03

    申请号:CN202211148079.3

    申请日:2022-09-21

    Abstract: 本发明公开了面向异构计算设备的深度学习图像分类方法及装置,将深度学习模型建模为一个有向无环图,有向无环图的节点表深度学习模型的算子,节点之间的有向边代表深度学习模型算子间的数据传输;根据算子分别在各异构计算设备上的处理时间为节点赋值,根据算子间数据在两个计算设备间的传输时间为节点之间的有向边赋值;将每个节点之间的有向边替换为新的节点,并增加两条有向边,保持有向无环图的拓扑结构,用原有向边的权重为新的节点赋值;对算子的内存占用、设备的内存限制、算子在设备上的执行顺序、设备与设备间的数据传输、设备与设备间的数据传输顺序建模,模型的目标函数是模型的端到端推理时延,从而得到最小时延的模型。

Patent Agency Ranking