一种面向分布式机器学习的多路径数据传输方法

    公开(公告)号:CN118945112A

    公开(公告)日:2024-11-12

    申请号:CN202410917357.X

    申请日:2024-07-10

    Abstract: 本发明公开了一种面向分布式机器学习的多路径数据传输方法,提出一种名为Mpldtp的面向分布式机器学习应用的用户态协议,通过增强对分布式机器学习过程中参数聚合与分发阶段的高效处理,最大限度地减少通信延迟,从而显著提升学习效率和整个系统的运行性能。与现有解决方案不同的是,本发明充分考虑了分布式机器学习对有界丢失的容忍特性、参数间的低关联性以及面对高丢包率、高延迟、动态带宽等复杂网络环境的具体特征,从而量身打造适应性更强的传输协议,实现了更准确高效的数据传输。

    一种基于全局费用最小化的雾计算任务卸载方法及系统

    公开(公告)号:CN115297123B

    公开(公告)日:2024-10-25

    申请号:CN202210937214.6

    申请日:2022-08-05

    Abstract: 本发明公开了一种基于全局费用最小化的雾计算任务卸载方法及系统,方法包括:S1,获取整个雾网络的信息;S2,根据S1获取的信息,判断各终端和雾节点的卸载可行性,并计算可行匹配的最优卸载比例和对应的费用;S3,根据S2得到的信息,计算各终端节点与雾节点之间的权重;S4,利用扩展Kuhn‑Munkres算法,根据S3得到的权重,以网络整体权重最大为目标,求解终端节点与雾节点之间的一对一匹配,得到任务卸载决策矩阵X;S5,以S4得到的决策矩阵X为索引,得到终端节点和对应雾节点的卸载比例、费用,以及系统总体的费用。本发明考虑多个终端节点和多个雾节点的场景,以全局的思想,保证最大化卸载成功率的前提下最小化网络的卸载费用,避免了局部最优的情况。

    基于优化和机器学习双驱动的算网存资源协同分配方法

    公开(公告)号:CN119945995A

    公开(公告)日:2025-05-06

    申请号:CN202510103432.3

    申请日:2025-01-22

    Abstract: 本发明公开了一种基于优化和机器学习双驱动的算网存资源协同分配方法,其包括获取待资源分配的所有用户请求,并将其存储至请求集合;将当前网络资源状态和算法决策状态及请求集合中未遍历的服务请求φ的服务功能m的用户状态输入已训练的DRL模型,得到服务请求φ的服务功能m及其所需的静态对象分别放置在各节点的效益权重wf、ws;将wf、ws分别拼接至算法决策状态的权重矩阵Wf和Ws,判断m是否等于服务请求φ的服务功能总数量,若是,则进入下一步,否则更新m=m+1,并返回模型识别步骤;判断服务请求φ是否等于H,若是,则通过求解ILP优化问题和LP优化问题得到资源分配策略,否则更新φ=φ+1,并返回模型识别步骤。

    一种基于全局费用最小化的雾计算任务卸载方法及系统

    公开(公告)号:CN115297123A

    公开(公告)日:2022-11-04

    申请号:CN202210937214.6

    申请日:2022-08-05

    Abstract: 本发明公开了一种基于全局费用最小化的雾计算任务卸载方法及系统,方法包括:S1,获取整个雾网络的信息;S2,根据S1获取的信息,判断各终端和雾节点的卸载可行性,并计算可行匹配的最优卸载比例和对应的费用;S3,根据S2得到的信息,计算各终端节点与雾节点之间的权重;S4,利用扩展Kuhn‑Munkres算法,根据S3得到的权重,以网络整体权重最大为目标,求解终端节点与雾节点之间的一对一匹配,得到任务卸载决策矩阵X;S5,以S4得到的决策矩阵X为索引,得到终端节点和对应雾节点的卸载比例、费用,以及系统总体的费用。本发明考虑多个终端节点和多个雾节点的场景,以全局的思想,保证最大化卸载成功率的前提下最小化网络的卸载费用,避免了局部最优的情况。

Patent Agency Ranking