一种群智感知中对感知时长敏感的任务分配方法

    公开(公告)号:CN110097262B

    公开(公告)日:2023-06-20

    申请号:CN201910310310.6

    申请日:2019-04-17

    Abstract: 本发明公开了一种群智感知中对感知时长敏感的任务分配方法,该任务分配方法包括如下步骤:S1、服务器获取多个感知任务,每个感知任务有特定的感知区域和感知时间段以及感知时长;S2、用户注册感知APP并给予服务器查看通信记录的权限;S3、服务器根据用户的移动智能设备所具备的传感器来选出候选工人集合;S4、服务器基于其分配机制选择一组合适的工人并为其分配任务;S5、被选中的工人完成任务并上传感知结果后会获得报酬。本发明基于指数分布构建了效用函数,对工人完成具有一定感知时长的任务的能力进行估计,并据此进行任务分配。

    基于演化博弈论的可切分任务卸载决策方法

    公开(公告)号:CN114245423A

    公开(公告)日:2022-03-25

    申请号:CN202111317497.6

    申请日:2021-11-09

    Inventor: 张幸林 卢文健

    Abstract: 本发明公开了一种基于演化博弈论的可切分任务卸载决策方法,包括:1)构建移动终端用户的可切分任务,将可切分任务分割成多个相同的子任务;2)构建关于子任务的卸载决策,并建立用户的成本函数;3)根据成本函数,构建演化博弈模型,初始化用户的策略状态;4)使用动态复制子方法,迭代求解策略状态直至状态不再发生改变,得到最终的每个用户的卸载策略。本发明基于演化博弈论进行可切分任务的卸载决策,能够在有限时间、有限资源、用户任务属性和地理位置不同的约束下,降低任务的完成成本,同时提高资源的利用率,进一步实现密集型基站部署下的卸载决策应用。

    基于雾辅助移动群智感知中保护隐私的数据聚合方法

    公开(公告)号:CN112929167B

    公开(公告)日:2022-02-15

    申请号:CN202110147787.4

    申请日:2021-02-03

    Abstract: 本发明公开了一种基于雾辅助移动群智感知中保护隐私的数据聚合方法,该方法基于Shamir门限秘密共享和Paillier公钥密码提供了对工人感知数据以及聚合任务结果的隐私保护,并支持聚合任务结果的可验证。在本发明中,通过引入雾节点,构造两层数据聚合架构,不仅解决了传统架构高延迟和地理位置不敏感的缺点,还分担了中心感知服务器的计算任务。此外,两层数据聚合可以在两个阶段分别对中间结果和最终结果进行层次验证,保证了数据聚合的可靠性。借助门限秘密共享的特性,该发明还能容忍一些雾节点离线后者损坏,并保证聚合任务结果的正确性和可验证性。

    一种基于感知效用最大化的群智感知激励方法

    公开(公告)号:CN108876567B

    公开(公告)日:2021-09-21

    申请号:CN201810545758.1

    申请日:2018-05-25

    Inventor: 张幸林 李鑫

    Abstract: 本发明公开了一种基于感知效用最大化的群智感知激励方法,包括:S1、任务发布者将感知任务集合发送给感知服务平台;S2、感知服务平台收到感知任务集合后,将消息发布到感知区域内目标用户端集合中的每个用户;S3、用户判断是否能够完成该任务,若能完成,则向感知服务平台返回自己的竞标价格;S4、感知服务平台基于激励模型选择中标的用户,并将所述感知任务集合分配给对应的中标用户;S5、中标用户执行感知任务并将感知结果发送给感知服务平台;S6、感知服务平台整合收到的感知结果并返回感知结果给任务发布者,支付报酬给中标用户。所述方法能够在预算约束、用户成本分布不均的条件下,招募更多、范围更广的用户,提高了感知服务的整体质量。

    一种基于用户基数最大化的群智感知激励方法

    公开(公告)号:CN108776863B

    公开(公告)日:2021-08-06

    申请号:CN201810515776.5

    申请日:2018-05-25

    Inventor: 张幸林 李鑫

    Abstract: 本发明公开了一种基于用户基数最大化的群智感知激励方法,包括以下步骤:S1、任务请求端将感知任务集合发送给感知服务平台;S2、感知服务平台将感知任务集合发送到目标感知区域中的每一个用户端;S3、用户端判断是否存在自身满足条件的感知任务,如若存在,则向感知服务平台提交自己的竞标数据;S4、感知服务平台接收到所有用户端的竞标数据,基于激励模型计算出每个感知任务在预算限制下能招募的最多人数,并将感知任务分配给对应的中标用户端;S5、感知服务平台整合收到的感知结果并返回结果给任务请求端,支付报酬给中标用户。所述方法能够在预算约束的条件下,用户成本分布不均的地区,招募更多的用户参与到感知任务中来。

    基于雾辅助移动群智感知中保护隐私的数据聚合方法

    公开(公告)号:CN112929167A

    公开(公告)日:2021-06-08

    申请号:CN202110147787.4

    申请日:2021-02-03

    Abstract: 本发明公开了一种基于雾辅助移动群智感知中保护隐私的数据聚合方法,该方法基于Shamir门限秘密共享和Paillier公钥密码提供了对工人感知数据以及聚合任务结果的隐私保护,并支持聚合任务结果的可验证。在本发明中,通过引入雾节点,构造两层数据聚合架构,不仅解决了传统架构高延迟和地理位置不敏感的缺点,还分担了中心感知服务器的计算任务。此外,两层数据聚合可以在两个阶段分别对中间结果和最终结果进行层次验证,保证了数据聚合的可靠性。借助门限秘密共享的特性,该发明还能容忍一些雾节点离线后者损坏,并保证聚合任务结果的正确性和可验证性。

    基于多任务联邦学习的通信成本和模型鲁棒性优化方法

    公开(公告)号:CN114219094B

    公开(公告)日:2024-03-19

    申请号:CN202111337548.1

    申请日:2021-11-10

    Inventor: 张幸林 欧昭婧

    Abstract: 本发明公开了一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法,在联邦学习的场景下,单个客户机需要训练多个用户型任务,其中客户机的模型由单个共享层和多个任务特定层组成;包括:1)服务器挑选并邀请客户机参与通信;2)客户机回应并发送信息给服务;3)服务器分发共享层给所有客户机;4)客户机组合模型;5)客户机使用优化算法本地训练模型;6)客户机量化压缩共享层并发送给服务器;7)服务器对共享层进行聚合;8)重复步骤1)‑7)直到满足要求。本发明方法能够在单个客户机训练多个用户型任务的联邦学习场景下,同时最小化总体的通信成本和提高模型的鲁棒性。

    一种基于用户公平性最大化的任务卸载与资源分配方法

    公开(公告)号:CN114338662B

    公开(公告)日:2022-10-25

    申请号:CN202111325086.1

    申请日:2021-11-10

    Inventor: 张幸林 周嘉韵

    Abstract: 本发明公开了一种基于用户公平性最大化的任务卸载与资源分配方法,边缘计算服务平台收集其对应地区的任务信息,以基于最大化用户公平性为边缘计算服务平台的目标函数,将所述任务集合中的任务卸载到边缘计算服务器进行计算,并对应分配任务所需的计算资源。具体来说,在每个时隙初边缘服务平台会收集该时隙的任务信息,首先为每个任务选择其计算的边缘计算服务器,并在任务卸载方案的基础上采用公平性最大化的资源分配方法确定每个任务在其对应服务器上获得的资源数量,以最小化该时隙内所有任务的最大服务体验欠缺系数。本发明方法能够在预算约束的条件下,让用户有更好的服务体验。

    一种基于用户公平性最大化的任务卸载与资源分配方法

    公开(公告)号:CN114338662A

    公开(公告)日:2022-04-12

    申请号:CN202111325086.1

    申请日:2021-11-10

    Inventor: 张幸林 周嘉韵

    Abstract: 本发明公开了一种基于用户公平性最大化的任务卸载与资源分配方法,边缘计算服务平台收集其对应地区的任务信息,以基于最大化用户公平性为边缘计算服务平台的目标函数,将所述任务集合中的任务卸载到边缘计算服务器进行计算,并对应分配任务所需的计算资源。具体来说,在每个时隙初边缘服务平台会收集该时隙的任务信息,首先为每个任务选择其计算的边缘计算服务器,并在任务卸载方案的基础上采用公平性最大化的资源分配方法确定每个任务在其对应服务器上获得的资源数量,以最小化该时隙内所有任务的最大服务体验欠缺系数。本发明方法能够在预算约束的条件下,让用户有更好的服务体验。

    基于多任务联邦学习的通信成本和模型鲁棒性优化方法

    公开(公告)号:CN114219094A

    公开(公告)日:2022-03-22

    申请号:CN202111337548.1

    申请日:2021-11-10

    Inventor: 张幸林 欧昭婧

    Abstract: 本发明公开了一种基于多任务联邦学习的通信成本和模型鲁棒性优化方法,在联邦学习的场景下,单个客户机需要训练多个用户型任务,其中客户机的模型由单个共享层和多个任务特定层组成;包括:1)服务器挑选并邀请客户机参与通信;2)客户机回应并发送信息给服务;3)服务器分发共享层给所有客户机;4)客户机组合模型;5)客户机使用优化算法本地训练模型;6)客户机量化压缩共享层并发送给服务器;7)服务器对共享层进行聚合;8)重复步骤1)‑7)直到满足要求。本发明方法能够在单个客户机训练多个用户型任务的联邦学习场景下,同时最小化总体的通信成本和提高模型的鲁棒性。

Patent Agency Ranking