-
公开(公告)号:CN117891613B
公开(公告)日:2024-05-31
申请号:CN202410229713.9
申请日:2024-02-29
Applicant: 湘江实验室
Abstract: 本申请涉及了一种基于车联网的计算卸载和资源分配方法及系统,本方法考虑同时优化车辆的卸载策略和边缘服务器的资源分配策略,根据合作博弈论指导下以最小化异构任务的任务完成延迟为目标计算出每一轮的卸载策略,根据DDPG(Deep Deterministic Policy Gradient)方法以最小化异构任务的任务完成延迟为目标计算每一轮的资源分配策略,如果前后两轮迭代的卸载策略和资源分配策略的任务完成延迟之差小于预设值,则得到的最终卸载策略和最终资源分配策略能够最大限度地减少完成多个车辆同时产生的异构任务的延迟,提高车辆边缘计算系统的整体性能。
-
公开(公告)号:CN117891613A
公开(公告)日:2024-04-16
申请号:CN202410229713.9
申请日:2024-02-29
Applicant: 湘江实验室
Abstract: 本申请涉及了一种基于车联网的计算卸载和资源分配方法及系统,本方法考虑同时优化车辆的卸载策略和边缘服务器的资源分配策略,根据合作博弈论指导下以最小化异构任务的任务完成延迟为目标计算出每一轮的卸载策略,根据DDPG(Deep Deterministic Policy Gradient)方法以最小化异构任务的任务完成延迟为目标计算每一轮的资源分配策略,如果前后两轮迭代的卸载策略和资源分配策略的任务完成延迟之差小于预设值,则得到的最终卸载策略和最终资源分配策略能够最大限度地减少完成多个车辆同时产生的异构任务的延迟,提高车辆边缘计算系统的整体性能。
-
公开(公告)号:CN117812564B
公开(公告)日:2024-05-31
申请号:CN202410229646.0
申请日:2024-02-29
Applicant: 湘江实验室
Abstract: 本申请涉及了一种应用于车联网的联邦学习方法、装置、设备及介质,方法构建了车辆本地训练、簇内模型聚合和服务器全局聚合的联邦学习分布式训练网络,并为了满足车辆联邦学习服务质量要求的同时支持尽可能快的模型收敛,构建了全局模型聚合的收敛时间最小化问题;其中,将服务器覆盖范围内的多个车辆划分成多个车辆簇,采用参与全局模型每轮训练的车辆簇不固定但数量固定的策略,实现了一种动态的半异步分簇式的联邦学习方法,降低了Non‑IID数据对学习过程的影响,缓解了掉队者问题,减少了训练时间和资源成本,同时也保持了学习的准确性。
-
公开(公告)号:CN117812564A
公开(公告)日:2024-04-02
申请号:CN202410229646.0
申请日:2024-02-29
Applicant: 湘江实验室
Abstract: 本申请涉及了一种应用于车联网的联邦学习方法、装置、设备及介质,方法构建了车辆本地训练、簇内模型聚合和服务器全局聚合的联邦学习分布式训练网络,并为了满足车辆联邦学习服务质量要求的同时支持尽可能快的模型收敛,构建了全局模型聚合的收敛时间最小化问题;其中,将服务器覆盖范围内的多个车辆划分成多个车辆簇,采用参与全局模型每轮训练的车辆簇不固定但数量固定的策略,实现了一种动态的半异步分簇式的联邦学习方法,降低了Non‑IID数据对学习过程的影响,缓解了掉队者问题,减少了训练时间和资源成本,同时也保持了学习的准确性。
-
-
-